<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>RAG on hdknr blog</title><link>https://hdknr.github.io/blogs/tags/rag/</link><description>Recent content in RAG on hdknr blog</description><generator>Hugo -- 0.157.0</generator><language>ja</language><lastBuildDate>Mon, 06 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://hdknr.github.io/blogs/tags/rag/index.xml" rel="self" type="application/rss+xml"/><item><title>RAG (Retrieval-Augmented Generation)</title><link>https://hdknr.github.io/blogs/wiki/concepts/rag/</link><pubDate>Mon, 06 Apr 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/wiki/concepts/rag/</guid><description>外部データベースから情報検索し、それを基に LLM が応答を生成する技術</description></item><item><title>Karpathy の LLM Wiki — AIエージェントが育てる個人ナレッジベースという新パターン</title><link>https://hdknr.github.io/blogs/posts/2026/04/karpathy-%E3%81%AE-llm-wiki-ai%E3%82%A8%E3%83%BC%E3%82%B8%E3%82%A7%E3%83%B3%E3%83%88%E3%81%8C%E8%82%B2%E3%81%A6%E3%82%8B%E5%80%8B%E4%BA%BA%E3%83%8A%E3%83%AC%E3%83%83%E3%82%B8%E3%83%99%E3%83%BC%E3%82%B9%E3%81%A8%E3%81%84%E3%81%86%E6%96%B0%E3%83%91%E3%82%BF%E3%83%BC%E3%83%B3/</link><pubDate>Sun, 05 Apr 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/04/karpathy-%E3%81%AE-llm-wiki-ai%E3%82%A8%E3%83%BC%E3%82%B8%E3%82%A7%E3%83%B3%E3%83%88%E3%81%8C%E8%82%B2%E3%81%A6%E3%82%8B%E5%80%8B%E4%BA%BA%E3%83%8A%E3%83%AC%E3%83%83%E3%82%B8%E3%83%99%E3%83%BC%E3%82%B9%E3%81%A8%E3%81%84%E3%81%86%E6%96%B0%E3%83%91%E3%82%BF%E3%83%BC%E3%83%B3/</guid><description>Andrej Karpathy が公開した LLM Wiki は、RAG の限界を超えて AI エージェントに個人ナレッジベースを継続的に構築・保守させるパターン。三層構造と3つの基本操作を解説。</description></item><item><title>LLM Wiki パターン</title><link>https://hdknr.github.io/blogs/wiki/concepts/llm-wiki-pattern/</link><pubDate>Sun, 05 Apr 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/wiki/concepts/llm-wiki-pattern/</guid><description>AI エージェントに個人ナレッジベースを継続的に構築・保守させるパターン</description></item><item><title>Onyx（旧 Danswer）完全ガイド — 無料で使えるオープンソース AI プラットフォーム</title><link>https://hdknr.github.io/blogs/posts/2026/04/onyx%E6%97%A7-danswer%E5%AE%8C%E5%85%A8%E3%82%AC%E3%82%A4%E3%83%89-%E7%84%A1%E6%96%99%E3%81%A7%E4%BD%BF%E3%81%88%E3%82%8B%E3%82%AA%E3%83%BC%E3%83%97%E3%83%B3%E3%82%BD%E3%83%BC%E3%82%B9-ai-%E3%83%97%E3%83%A9%E3%83%83%E3%83%88%E3%83%95%E3%82%A9%E3%83%BC%E3%83%A0/</link><pubDate>Fri, 03 Apr 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/04/onyx%E6%97%A7-danswer%E5%AE%8C%E5%85%A8%E3%82%AC%E3%82%A4%E3%83%89-%E7%84%A1%E6%96%99%E3%81%A7%E4%BD%BF%E3%81%88%E3%82%8B%E3%82%AA%E3%83%BC%E3%83%97%E3%83%B3%E3%82%BD%E3%83%BC%E3%82%B9-ai-%E3%83%97%E3%83%A9%E3%83%83%E3%83%88%E3%83%95%E3%82%A9%E3%83%BC%E3%83%A0/</guid><description>Onyx（旧 Danswer）は MIT ライセンスの無料 AI プラットフォーム。RAG・AIエージェント・50以上のコネクタを備え、Docker でセルフホスト可能。インストール手順やエディション比較を解説。</description></item><item><title>MiroFish その後: 3週間で GitHub Star 4.7万超へ — コミュニティの広がりと今後の展望</title><link>https://hdknr.github.io/blogs/posts/2026/03/mirofish-%E3%81%9D%E3%81%AE%E5%BE%8C-3%E9%80%B1%E9%96%93%E3%81%A7-github-star-4.7%E4%B8%87%E8%B6%85%E3%81%B8-%E3%82%B3%E3%83%9F%E3%83%A5%E3%83%8B%E3%83%86%E3%82%A3%E3%81%AE%E5%BA%83%E3%81%8C%E3%82%8A%E3%81%A8%E4%BB%8A%E5%BE%8C%E3%81%AE%E5%B1%95%E6%9C%9B/</link><pubDate>Tue, 31 Mar 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/03/mirofish-%E3%81%9D%E3%81%AE%E5%BE%8C-3%E9%80%B1%E9%96%93%E3%81%A7-github-star-4.7%E4%B8%87%E8%B6%85%E3%81%B8-%E3%82%B3%E3%83%9F%E3%83%A5%E3%83%8B%E3%83%86%E3%82%A3%E3%81%AE%E5%BA%83%E3%81%8C%E3%82%8A%E3%81%A8%E4%BB%8A%E5%BE%8C%E3%81%AE%E5%B1%95%E6%9C%9B/</guid><description>AI 予測エンジン MiroFish が公開3週間で GitHub Star 4.7万超に急成長。オフライン版やデモサイトなどコミュニティの展開と、群体知能アプローチの可能性を追う。</description></item><item><title>OpenDataLoader PDF — CPUだけで毎秒100ページ、PDFをMarkdownに超高速変換するOSSツール</title><link>https://hdknr.github.io/blogs/posts/2026/03/opendataloader-pdf-cpu%E3%81%A0%E3%81%91%E3%81%A7%E6%AF%8E%E7%A7%92100%E3%83%9A%E3%83%BC%E3%82%B8pdf%E3%82%92markdown%E3%81%AB%E8%B6%85%E9%AB%98%E9%80%9F%E5%A4%89%E6%8F%9B%E3%81%99%E3%82%8Boss%E3%83%84%E3%83%BC%E3%83%AB/</link><pubDate>Wed, 18 Mar 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/03/opendataloader-pdf-cpu%E3%81%A0%E3%81%91%E3%81%A7%E6%AF%8E%E7%A7%92100%E3%83%9A%E3%83%BC%E3%82%B8pdf%E3%82%92markdown%E3%81%AB%E8%B6%85%E9%AB%98%E9%80%9F%E5%A4%89%E6%8F%9B%E3%81%99%E3%82%8Boss%E3%83%84%E3%83%BC%E3%83%AB/</guid><description>&lt;p&gt;GPUなしで毎秒100ページ以上のPDF→Markdown変換を実現するオープンソースツール「OpenDataLoader PDF」が話題になっている。Apache 2.0ライセンスで完全無料、CPUのみで動作するため、高価なGPUハードウェアは不要だ。&lt;/p&gt;
&lt;h2 id="opendataloader-pdf-とは"&gt;OpenDataLoader PDF とは&lt;/h2&gt;
&lt;p&gt;&lt;a href="https://github.com/opendataloader-project/opendataloader-pdf"&gt;OpenDataLoader PDF&lt;/a&gt; は、PDFドキュメントをAI活用に適した構造化データ（Markdown、JSON、HTML等）に変換するオープンソースのパーサーだ。Java で実装されており、Python・Node.js・Java から利用できる。&lt;/p&gt;
&lt;p&gt;主な特徴:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;超高速処理&lt;/strong&gt;: ローカルモードで 0.05秒/ページ（CPUのみ）、8コア以上のマシンでマルチプロセスバッチ処理すると毎秒100ページ以上&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;GPU不要&lt;/strong&gt;: CPUだけで高速に動作するため、導入コストが低い&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;高精度&lt;/strong&gt;: ベンチマークで総合精度0.90を達成し、読み順・テーブル・見出し抽出で1位&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Apache 2.0ライセンス&lt;/strong&gt;: 商用利用可能な完全オープンソース&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="インストール"&gt;インストール&lt;/h2&gt;
&lt;p&gt;Python パッケージは Java CLI のラッパーのため、&lt;strong&gt;Java 11以上&lt;/strong&gt;と&lt;strong&gt;Python 3.10以上&lt;/strong&gt;が必要だ。&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;
&lt;table style="border-spacing:0;padding:0;margin:0;border:0;"&gt;&lt;tr&gt;&lt;td style="vertical-align:top;padding:0;margin:0;border:0;"&gt;
&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;1
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;2
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;3
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;4
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;5
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td style="vertical-align:top;padding:0;margin:0;border:0;;width:100%"&gt;
&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#75715e"&gt;# Python&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;pip install -U opendataloader-pdf
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#75715e"&gt;# Node.js&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;npm install @opendataloader/pdf
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Java の場合は Maven で &lt;code&gt;opendataloader-pdf-core&lt;/code&gt; を依存関係に追加する。&lt;/p&gt;
&lt;h2 id="基本的な使い方"&gt;基本的な使い方&lt;/h2&gt;
&lt;h3 id="python-でのシンプルな変換"&gt;Python でのシンプルな変換&lt;/h3&gt;
&lt;div class="highlight"&gt;&lt;div style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;
&lt;table style="border-spacing:0;padding:0;margin:0;border:0;"&gt;&lt;tr&gt;&lt;td style="vertical-align:top;padding:0;margin:0;border:0;"&gt;
&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;1
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;2
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;3
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;4
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;5
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;6
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;7
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td style="vertical-align:top;padding:0;margin:0;border:0;;width:100%"&gt;
&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-python" data-lang="python"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#f92672"&gt;import&lt;/span&gt; opendataloader_pdf
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;opendataloader_pdf&lt;span style="color:#f92672"&gt;.&lt;/span&gt;convert(
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; input_path&lt;span style="color:#f92672"&gt;=&lt;/span&gt;[&lt;span style="color:#e6db74"&gt;&amp;#34;file1.pdf&amp;#34;&lt;/span&gt;, &lt;span style="color:#e6db74"&gt;&amp;#34;file2.pdf&amp;#34;&lt;/span&gt;, &lt;span style="color:#e6db74"&gt;&amp;#34;folder/&amp;#34;&lt;/span&gt;],
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; output_dir&lt;span style="color:#f92672"&gt;=&lt;/span&gt;&lt;span style="color:#e6db74"&gt;&amp;#34;output/&amp;#34;&lt;/span&gt;,
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; format&lt;span style="color:#f92672"&gt;=&lt;/span&gt;&lt;span style="color:#e6db74"&gt;&amp;#34;markdown,json&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;)
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;フォルダを指定すれば一括変換も可能だ。出力形式は Markdown、JSON、HTML、プレーンテキスト、注釈付きPDFから選べる。&lt;/p&gt;</description></item><item><title>Google Gemini Embedding 2：テキスト・画像・動画・音声を統一ベクトル空間に埋め込むマルチモーダル埋め込みモデル</title><link>https://hdknr.github.io/blogs/posts/2026/03/google-gemini-embedding-2%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E7%94%BB%E5%83%8F%E5%8B%95%E7%94%BB%E9%9F%B3%E5%A3%B0%E3%82%92%E7%B5%B1%E4%B8%80%E3%83%99%E3%82%AF%E3%83%88%E3%83%AB%E7%A9%BA%E9%96%93%E3%81%AB%E5%9F%8B%E3%82%81%E8%BE%BC%E3%82%80%E3%83%9E%E3%83%AB%E3%83%81%E3%83%A2%E3%83%BC%E3%83%80%E3%83%AB%E5%9F%8B%E3%82%81%E8%BE%BC%E3%81%BF%E3%83%A2%E3%83%87%E3%83%AB/</link><pubDate>Wed, 11 Mar 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/03/google-gemini-embedding-2%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E7%94%BB%E5%83%8F%E5%8B%95%E7%94%BB%E9%9F%B3%E5%A3%B0%E3%82%92%E7%B5%B1%E4%B8%80%E3%83%99%E3%82%AF%E3%83%88%E3%83%AB%E7%A9%BA%E9%96%93%E3%81%AB%E5%9F%8B%E3%82%81%E8%BE%BC%E3%82%80%E3%83%9E%E3%83%AB%E3%83%81%E3%83%A2%E3%83%BC%E3%83%80%E3%83%AB%E5%9F%8B%E3%82%81%E8%BE%BC%E3%81%BF%E3%83%A2%E3%83%87%E3%83%AB/</guid><description>&lt;p&gt;Google が 2026年3月に公開した &lt;strong&gt;Gemini Embedding 2&lt;/strong&gt; は、テキスト・画像・動画・音声・ドキュメントを同一のベクトル空間に埋め込める、初のネイティブマルチモーダル埋め込みモデルだ。RAG パイプラインやマルチモーダル検索を構築する開発者にとって注目すべきモデルとなっている。&lt;/p&gt;
&lt;h2 id="主な特徴"&gt;主な特徴&lt;/h2&gt;
&lt;h3 id="ネイティブマルチモーダル対応"&gt;ネイティブマルチモーダル対応&lt;/h3&gt;
&lt;p&gt;従来の埋め込みモデルはテキスト専用か、別モデルで画像を処理する必要があった。Gemini Embedding 2 は全モダリティを &lt;strong&gt;3072次元の統一ベクトル空間&lt;/strong&gt; に直接埋め込む。これにより、テキストで検索して関連する画像や動画を取得するといったクロスモーダル検索が自然に実現できる。&lt;/p&gt;
&lt;p&gt;対応モダリティと制限:&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;モダリティ&lt;/th&gt;
&lt;th&gt;制限&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;テキスト&lt;/td&gt;
&lt;td&gt;最大 8,192 トークン&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;画像&lt;/td&gt;
&lt;td&gt;1リクエストあたり最大 6枚（PNG, JPEG）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;動画&lt;/td&gt;
&lt;td&gt;最大 120秒（MP4, MOV）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;音声&lt;/td&gt;
&lt;td&gt;ネイティブ対応（テキスト変換不要）&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;インターリーブ入力にも対応しており、1つのリクエストに画像とテキストを混在させて渡すことができる。&lt;/p&gt;
&lt;h3 id="matryoshka-表現学習mrl"&gt;Matryoshka 表現学習（MRL）&lt;/h3&gt;
&lt;p&gt;Matryoshka Representation Learning（マトリョーシカ表現学習）により、重要な意味情報がベクトルの先頭次元に集約される設計になっている。デフォルトの 3,072次元から 1,536 や 768次元に切り詰めても、検索品質の大部分を維持できる。&lt;/p&gt;
&lt;p&gt;Google の推奨次元数:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;3,072次元&lt;/strong&gt;：最高品質&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;1,536次元&lt;/strong&gt;：高品質（コスト削減向け）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;768次元&lt;/strong&gt;：バランスの良い推奨値&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;768次元に切り詰めた場合でも、同サイズの固定次元モデルを上回る性能を発揮するとされている。&lt;/p&gt;
&lt;h3 id="多言語対応と性能"&gt;多言語対応と性能&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;100以上の言語をサポート&lt;/li&gt;
&lt;li&gt;MTEB 多言語リーダーボードで 69.9 を記録しトップランク&lt;/li&gt;
&lt;li&gt;MTEB コード検索でも 84.0 と高スコア&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="料金"&gt;料金&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;プラン&lt;/th&gt;
&lt;th&gt;料金&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;リアルタイム API&lt;/td&gt;
&lt;td&gt;$0.20 / 100万トークン&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;バッチ API&lt;/td&gt;
&lt;td&gt;$0.10 / 100万トークン（50% OFF）&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;OpenAI の text-embedding-3-small（$0.02/100万トークン）と比較すると高価だが、マルチモーダル対応を単一モデルで実現している点が差別化要因となる。&lt;/p&gt;</description></item><item><title>ローカルQwenに個人知識を覚えさせたい — ファインチューニング vs RAG</title><link>https://hdknr.github.io/blogs/posts/2026/03/%E3%83%AD%E3%83%BC%E3%82%AB%E3%83%ABqwen%E3%81%AB%E5%80%8B%E4%BA%BA%E7%9F%A5%E8%AD%98%E3%82%92%E8%A6%9A%E3%81%88%E3%81%95%E3%81%9B%E3%81%9F%E3%81%84-%E3%83%95%E3%82%A1%E3%82%A4%E3%83%B3%E3%83%81%E3%83%A5%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0-vs-rag/</link><pubDate>Tue, 10 Mar 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/03/%E3%83%AD%E3%83%BC%E3%82%AB%E3%83%ABqwen%E3%81%AB%E5%80%8B%E4%BA%BA%E7%9F%A5%E8%AD%98%E3%82%92%E8%A6%9A%E3%81%88%E3%81%95%E3%81%9B%E3%81%9F%E3%81%84-%E3%83%95%E3%82%A1%E3%82%A4%E3%83%B3%E3%83%81%E3%83%A5%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0-vs-rag/</guid><description>&lt;p&gt;ローカルで Ollama + Qwen を動かしている Mac Studio（M3 Ultra / 96GB）に、NAS 上の PDF やテキストなどのドキュメントを学習させて「個人の知識ベース」として活用したい——そんなとき、ファインチューニングと RAG のどちらを選ぶべきかを整理する。&lt;/p&gt;
&lt;h2 id="やりたいこと"&gt;やりたいこと&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;NAS に蓄積された個人ドキュメント（PDF、テキスト等）の知識を Qwen に覚えさせたい&lt;/li&gt;
&lt;li&gt;自分の PC を使った活動に関する知識を、AI が把握している状態にしたい&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="選択肢1-ファインチューニングqlora"&gt;選択肢1: ファインチューニング（QLoRA）&lt;/h2&gt;
&lt;p&gt;モデル自体の重みを更新し、知識を「記憶」させるアプローチ。&lt;/p&gt;
&lt;h3 id="mac-studio-での実現可能性"&gt;Mac Studio での実現可能性&lt;/h3&gt;
&lt;p&gt;M3 Ultra / 96GB 統合メモリなら、QLoRA でのファインチューニングは技術的に可能。&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;手法&lt;/th&gt;
&lt;th&gt;必要メモリ目安（7B）&lt;/th&gt;
&lt;th&gt;ツール&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;QLoRA (4bit)&lt;/td&gt;
&lt;td&gt;6-8 GB&lt;/td&gt;
&lt;td&gt;Unsloth, LLaMA-Factory, MLX&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;LoRA (16bit)&lt;/td&gt;
&lt;td&gt;14-16 GB&lt;/td&gt;
&lt;td&gt;LLaMA-Factory, PEFT&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;フル FT&lt;/td&gt;
&lt;td&gt;60+ GB&lt;/td&gt;
&lt;td&gt;非現実的&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;Apple Silicon では &lt;strong&gt;MLX&lt;/strong&gt; ベースが最もパフォーマンスが良い。&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;div style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;
&lt;table style="border-spacing:0;padding:0;margin:0;border:0;"&gt;&lt;tr&gt;&lt;td style="vertical-align:top;padding:0;margin:0;border:0;"&gt;
&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 1
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 2
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 3
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 4
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 5
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 6
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 7
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 8
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt; 9
&lt;/span&gt;&lt;span style="white-space:pre;-webkit-user-select:none;user-select:none;margin-right:0.4em;padding:0 0.4em 0 0.4em;color:#7f7f7f"&gt;10
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td style="vertical-align:top;padding:0;margin:0;border:0;;width:100%"&gt;
&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#75715e"&gt;# MLX での QLoRA 実行例&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;pip install mlx-lm
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;mlx_lm.lora &lt;span style="color:#ae81ff"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --model Qwen/Qwen2.5-Coder-14B-Instruct &lt;span style="color:#ae81ff"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --data ./training_data &lt;span style="color:#ae81ff"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --train &lt;span style="color:#ae81ff"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --batch-size &lt;span style="color:#ae81ff"&gt;1&lt;/span&gt; &lt;span style="color:#ae81ff"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --lora-layers &lt;span style="color:#ae81ff"&gt;16&lt;/span&gt; &lt;span style="color:#ae81ff"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --iters &lt;span style="color:#ae81ff"&gt;1000&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h3 id="ファインチューニングの課題"&gt;ファインチューニングの課題&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;最大のボトルネックはデータ準備&lt;/strong&gt;。NAS の生ファイルはそのまま学習データにはならず、instruction 形式への変換が必要になる。&lt;/p&gt;</description></item><item><title>Agentic AI 学習ロードマップ — 「フルスタックインテリジェンス」を9ヶ月で習得する体系的な道筋</title><link>https://hdknr.github.io/blogs/posts/2026/03/agentic-ai-%E5%AD%A6%E7%BF%92%E3%83%AD%E3%83%BC%E3%83%89%E3%83%9E%E3%83%83%E3%83%97-%E3%83%95%E3%83%AB%E3%82%B9%E3%82%BF%E3%83%83%E3%82%AF%E3%82%A4%E3%83%B3%E3%83%86%E3%83%AA%E3%82%B8%E3%82%A7%E3%83%B3%E3%82%B9%E3%82%929%E3%83%B6%E6%9C%88%E3%81%A7%E7%BF%92%E5%BE%97%E3%81%99%E3%82%8B%E4%BD%93%E7%B3%BB%E7%9A%84%E3%81%AA%E9%81%93%E7%AD%8B/</link><pubDate>Thu, 05 Mar 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/03/agentic-ai-%E5%AD%A6%E7%BF%92%E3%83%AD%E3%83%BC%E3%83%89%E3%83%9E%E3%83%83%E3%83%97-%E3%83%95%E3%83%AB%E3%82%B9%E3%82%BF%E3%83%83%E3%82%AF%E3%82%A4%E3%83%B3%E3%83%86%E3%83%AA%E3%82%B8%E3%82%A7%E3%83%B3%E3%82%B9%E3%82%929%E3%83%B6%E6%9C%88%E3%81%A7%E7%BF%92%E5%BE%97%E3%81%99%E3%82%8B%E4%BD%93%E7%B3%BB%E7%9A%84%E3%81%AA%E9%81%93%E7%AD%8B/</guid><description>&lt;h1 id="agentic-ai-学習ロードマップ--フルスタックインテリジェンスを9ヶ月で習得する体系的な道筋"&gt;Agentic AI 学習ロードマップ — 「フルスタックインテリジェンス」を9ヶ月で習得する体系的な道筋&lt;/h1&gt;
&lt;p&gt;&lt;a href="https://x.com/ingliguori/status/2029184341893337547"&gt;@ingliguori 氏（Giuliano Liguori）のポスト&lt;/a&gt;が、Agentic AI を学ぶためのロードマップを共有しています。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Roadmap to learn Agentic AI:
AI fundamentals → Python + frameworks → LLMs → Agents architecture → Memory + RAG → Planning &amp;amp; decision-making → RL &amp;amp; self-improvement → Deployment → Real-world automation
Agentic AI = full-stack intelligence.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;「Agentic AI = フルスタックインテリジェンス」というフレーズが示すように、AI エージェントの開発には基礎数学からデプロイまで、フルスタックの知識が求められます。本記事では、このロードマップを複数の学習リソースと照合しながら、各段階で何を学び、どのツールを使い、どこまでを目指すのかを体系的に解説します。&lt;/p&gt;
&lt;h2 id="ロードマップの全体像"&gt;ロードマップの全体像&lt;/h2&gt;
&lt;p&gt;Liguori 氏が示した9ステップを、&lt;a href="https://www.scaler.com/blog/agentic-ai-roadmap/"&gt;Scaler の9ヶ月ロードマップ&lt;/a&gt;と &lt;a href="https://roadmap.sh/ai-agents"&gt;roadmap.sh の AI Agents ロードマップ&lt;/a&gt;を参考に、時系列で整理します。&lt;/p&gt;
&lt;pre tabindex="0"&gt;&lt;code&gt;月0-1 AI Fundamentals ← 数学 + ML 基礎
月1-2 Python + Frameworks ← API + ライブラリ
月2-3 LLMs ← Transformer + プロンプト
月3-4 Agents Architecture ← ReAct + ツール使用
月4-5 Memory + RAG ← ベクトル DB + 検索拡張
月5-6 Planning &amp;amp; Decision ← 計画 + マルチエージェント
月6-7 RL &amp;amp; Self-improvement ← フィードバック + 自律性
月7-8 Deployment ← MLOps + 監視
月8-9 Real-world Automation ← ポートフォリオ + 実案件
&lt;/code&gt;&lt;/pre&gt;&lt;h2 id="step-1-ai-fundamentals月0-1"&gt;Step 1: AI Fundamentals（月0-1）&lt;/h2&gt;
&lt;h3 id="学ぶこと"&gt;学ぶこと&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;分野&lt;/th&gt;
&lt;th&gt;具体的な内容&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;線形代数&lt;/td&gt;
&lt;td&gt;ベクトル、行列演算、固有値分解、SVD&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;微積分&lt;/td&gt;
&lt;td&gt;勾配、偏微分、最適化&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;確率・統計&lt;/td&gt;
&lt;td&gt;ベイズの定理、分布、仮説検定&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ML 基礎&lt;/td&gt;
&lt;td&gt;教師あり/なし学習、評価指標&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id="推奨リソース"&gt;推奨リソース&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://www.khanacademy.org/"&gt;Khan Academy&lt;/a&gt; — 数学基礎&lt;/li&gt;
&lt;li&gt;&amp;ldquo;Mathematics for Machine Learning&amp;rdquo;（書籍）&lt;/li&gt;
&lt;li&gt;&lt;a href="https://www.youtube.com/@StatQuest"&gt;StatQuest&lt;/a&gt; — 統計の直感的理解&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="この段階のゴール"&gt;この段階のゴール&lt;/h3&gt;
&lt;p&gt;「なぜニューラルネットワークが動くのか」を数学的に説明できること。数式を書ける必要はないが、勾配降下法やベイズ推論の直感を持つことが重要です。&lt;/p&gt;</description></item><item><title>Agentic AIの周期表 — 66要素で読み解くAIエージェント構築の全体像</title><link>https://hdknr.github.io/blogs/posts/2026/03/agentic-ai%E3%81%AE%E5%91%A8%E6%9C%9F%E8%A1%A8-66%E8%A6%81%E7%B4%A0%E3%81%A7%E8%AA%AD%E3%81%BF%E8%A7%A3%E3%81%8Fai%E3%82%A8%E3%83%BC%E3%82%B8%E3%82%A7%E3%83%B3%E3%83%88%E6%A7%8B%E7%AF%89%E3%81%AE%E5%85%A8%E4%BD%93%E5%83%8F/</link><pubDate>Thu, 05 Mar 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/03/agentic-ai%E3%81%AE%E5%91%A8%E6%9C%9F%E8%A1%A8-66%E8%A6%81%E7%B4%A0%E3%81%A7%E8%AA%AD%E3%81%BF%E8%A7%A3%E3%81%8Fai%E3%82%A8%E3%83%BC%E3%82%B8%E3%82%A7%E3%83%B3%E3%83%88%E6%A7%8B%E7%AF%89%E3%81%AE%E5%85%A8%E4%BD%93%E5%83%8F/</guid><description>&lt;h1 id="agentic-ai-の周期表--66-要素で読み解く-ai-エージェント構築の全体像"&gt;Agentic AI の周期表 — 66 要素で読み解く AI エージェント構築の全体像&lt;/h1&gt;
&lt;p&gt;&lt;a href="https://x.com/ingliguori/status/2028899473653469308"&gt;@ingliguori（Giuliano Liguori）氏のポスト&lt;/a&gt;が話題になっています。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Agentic AI now has its own &amp;ldquo;Periodic Table&amp;rdquo;. From: LLM, RAG, RL to PLAN, MAS, LTM to SAFE, HUMAN oversight to HR, MKT, LEGAL use cases. Autonomous AI = memory + planning + tools + safety + collaboration. It&amp;rsquo;s a system, not a prompt.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Capital One の Chief Scientist である Prem Natarajan 氏が、AI エージェント構築に必要な &lt;strong&gt;66 の要素&lt;/strong&gt;を化学の周期表のように体系化した「Agentic AI Periodic Table」を公開しました。LLM や RAG といった基盤技術から、メモリシステム、安全性プロトコル、業務適用まで、エージェント開発の全領域を一枚の表に凝縮しています。&lt;/p&gt;</description></item><item><title># コンテキストエンジニアリング — AI を「使う人」と「使いこなす人」の違い</title><link>https://hdknr.github.io/blogs/posts/2026/02/%23-%E3%82%B3%E3%83%B3%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%82%A8%E3%83%B3%E3%82%B8%E3%83%8B%E3%82%A2%E3%83%AA%E3%83%B3%E3%82%B0-ai-%E3%82%92%E4%BD%BF%E3%81%86%E4%BA%BA%E3%81%A8%E4%BD%BF%E3%81%84%E3%81%93%E3%81%AA%E3%81%99%E4%BA%BA%E3%81%AE%E9%81%95%E3%81%84/</link><pubDate>Fri, 27 Feb 2026 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2026/02/%23-%E3%82%B3%E3%83%B3%E3%83%86%E3%82%AD%E3%82%B9%E3%83%88%E3%82%A8%E3%83%B3%E3%82%B8%E3%83%8B%E3%82%A2%E3%83%AA%E3%83%B3%E3%82%B0-ai-%E3%82%92%E4%BD%BF%E3%81%86%E4%BA%BA%E3%81%A8%E4%BD%BF%E3%81%84%E3%81%93%E3%81%AA%E3%81%99%E4%BA%BA%E3%81%AE%E9%81%95%E3%81%84/</guid><description>&lt;h1 id="コンテキストエンジニアリング--ai-を使う人と使いこなす人の違い"&gt;コンテキストエンジニアリング — AI を「使う人」と「使いこなす人」の違い&lt;/h1&gt;
&lt;blockquote&gt;
&lt;p&gt;紹介ポスト: &lt;a href="https://x.com/7_eito_7/status/2025953809030406420"&gt;えいと @7_eito_7&lt;/a&gt;
「AIを使っている人と、本当にAIを使いこなしている人の違いは何か。結論はコンテキストエンジニアリングができるかどうか。簡単に言えば、指示の出し方ではなく&lt;strong&gt;どんな文脈を渡しているか&lt;/strong&gt;。」&lt;/p&gt;
&lt;/blockquote&gt;
&lt;hr&gt;
&lt;h2 id="はじめに"&gt;はじめに&lt;/h2&gt;
&lt;p&gt;2025年半ば、Shopify CEO の Tobi Lütke が次のように発言した:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;「&amp;ldquo;プロンプトエンジニアリング&amp;quot;より&amp;quot;コンテキストエンジニアリング&amp;quot;という言葉の方がずっと好きだ。LLM がタスクを解決できるだけの十分な文脈を与える技術 — これこそが核心的スキルだ。」&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;AI 研究者の Andrej Karpathy もこれに同意し、「コンテキストエンジニアリング」という概念は一気に広まった。2026年現在、プロンプトエンジニアリングの時代は終わり、&lt;strong&gt;コンテキストエンジニアリングが AI 活用の新しい標準&lt;/strong&gt;になりつつある。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="プロンプトエンジニアリング-vs-コンテキストエンジニアリング"&gt;プロンプトエンジニアリング vs コンテキストエンジニアリング&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;観点&lt;/th&gt;
&lt;th&gt;プロンプトエンジニアリング&lt;/th&gt;
&lt;th&gt;コンテキストエンジニアリング&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;スコープ&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;1つの入力テキストの書き方&lt;/td&gt;
&lt;td&gt;モデルが見る情報の全体設計&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;焦点&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;指示の言い回し・構造&lt;/td&gt;
&lt;td&gt;情報の選択・順序・形式・量&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;対象&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;単発の質疑応答&lt;/td&gt;
&lt;td&gt;複雑な推論、マルチターン、エージェント&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;複雑さ&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;文章レベル&lt;/td&gt;
&lt;td&gt;システムレベルのパイプライン&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;例え&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;「質問の仕方を工夫する」&lt;/td&gt;
&lt;td&gt;「解答に必要な教科書・資料・道具を揃える」&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;プロンプトエンジニアリングは&lt;strong&gt;コンテキストエンジニアリングの一部&lt;/strong&gt;にすぎない。質問の質ではなく、&lt;strong&gt;AI に渡す情報の質と構造&lt;/strong&gt;が結果を決める。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="なぜプロンプトだけでは不十分なのか"&gt;なぜプロンプトだけでは不十分なのか&lt;/h2&gt;
&lt;p&gt;よくある問題: RAG で正確な情報を取得し、プロンプトも丁寧に書いた。&lt;strong&gt;それでも AI がハルシネーションを起こす&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;原因はプロンプトでも検索でもなく、&lt;strong&gt;コンテキストの構造&lt;/strong&gt;にある。&lt;/p&gt;
&lt;h3 id="プロンプトの-3-つの限界"&gt;プロンプトの 3 つの限界&lt;/h3&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;情報不足&lt;/strong&gt;: 質問は完璧でも、判断に必要な背景情報が足りない&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;情報過多&lt;/strong&gt;: 関連情報を全部詰め込むと、かえって精度が落ちる（ノイズに埋もれる）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;情報の無秩序&lt;/strong&gt;: 重要な情報とそうでない情報が区別なく並んでいる&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;コンテキストエンジニアリングは、この 3 つを体系的に解決する。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="コンテキストエンジニアリングの-4-つの柱"&gt;コンテキストエンジニアリングの 4 つの柱&lt;/h2&gt;
&lt;h3 id="1-構成composition-何を渡すか"&gt;1. 構成（Composition）— 何を渡すか&lt;/h3&gt;
&lt;p&gt;タスクに必要な「材料」を選択する:&lt;/p&gt;</description></item><item><title>Apple: App Store Connect</title><link>https://hdknr.github.io/blogs/posts/2024/09/apple-app-store-connect/</link><pubDate>Tue, 03 Sep 2024 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2024/09/apple-app-store-connect/</guid><description>&lt;h1 id="app-store-connect"&gt;App Store Connect&lt;/h1&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://developer.apple.com/jp/help/app-store-connect/reference/screenshot-specifications/"&gt;スクリーンショットの仕様&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="アップデート"&gt;アップデート&lt;/h2&gt;
&lt;p&gt;✓ Built IPA to build/ios/ipa (46.7MB)
To upload to the App Store either:
1. Drag and drop the &amp;ldquo;build/ios/ipa/&lt;em&gt;.ipa&amp;rdquo; bundle into the Apple Transporter macOS app &lt;a href="https://apps.apple.com/us/app/transporter/id1450874784"&gt;https://apps.apple.com/us/app/transporter/id1450874784&lt;/a&gt;
2. Run &amp;ldquo;xcrun altool &amp;ndash;upload-app &amp;ndash;type ios -f build/ios/ipa/&lt;/em&gt;.ipa &amp;ndash;apiKey your_api_key &amp;ndash;apiIssuer your_issuer_id&amp;rdquo;.
See &amp;ldquo;man altool&amp;rdquo; for details about how to authenticate with the App Store Connect API key.&lt;/p&gt;
&lt;h2 id="xcrun-altool-での-apikey-と-apiissuer-の取得方法"&gt;xcrun altool での apiKey と apiIssuer の取得方法&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;xcrun altool&lt;/strong&gt; を使用して App Store Connect にアプリをアップロードする際に、&lt;strong&gt;apiKey&lt;/strong&gt; と &lt;strong&gt;apiIssuer&lt;/strong&gt; の値が必要になりますね。これらの値は、App Store Connect で API キーを作成することで取得できます。&lt;/p&gt;</description></item><item><title>ColPali</title><link>https://hdknr.github.io/blogs/posts/2024/08/colpali/</link><pubDate>Thu, 01 Aug 2024 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2024/08/colpali/</guid><description>&lt;h1 id="colpali"&gt;ColPali&lt;/h1&gt;
&lt;h2 id="arxiv"&gt;arXiv&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://ja.wikipedia.org/wiki/ArXiv"&gt;アーカイブ&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="記事"&gt;記事&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://zenn.dev/kun432/scraps/7841793c270e80"&gt;ColPali： PaliGemma-3B と ColBERT ストラテジーに基づくビジュアルレトリバー&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://arxiv.org/abs/2407.01449"&gt;ColPali: Efficient Document Retrieval with Vision Language Models&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://zenn.dev/knowledgesense/articles/08cfc3de7464cb"&gt;テキスト抽出不要の RAG を実現する ColPali&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item><item><title>GetAI: RAG</title><link>https://hdknr.github.io/blogs/posts/2024/04/getai-rag/</link><pubDate>Fri, 12 Apr 2024 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2024/04/getai-rag/</guid><description>&lt;h1 id="rag"&gt;RAG&lt;/h1&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://note.com/daichi_mu/n/n11cdd94d33d6"&gt;【勉強メモ】RAG But Better: Cohere AI によるリランカー　 RAG But Better: Rerankers with Cohere AI&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;</description></item><item><title>AWS: Bedrock: KnowlegeBase</title><link>https://hdknr.github.io/blogs/posts/2024/03/aws-bedrock-knowlegebase/</link><pubDate>Thu, 14 Mar 2024 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2024/03/aws-bedrock-knowlegebase/</guid><description>&lt;h1 id="aws-bedrock-knowlege-base"&gt;AWS: Bedrock: Knowlege Base&lt;/h1&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://wp-kyoto.net/create-a-new-rag-knowledgebase-using-appflow-and-stripe/"&gt;AppFlow と Amazon Bedrock を利用して Stripe の商品・料金情報についての RAG を作ってみる&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://wp-kyoto.net/get-started-with-bedrock-knowledge-base-with-pinecone/"&gt;Amazon Bedrock に新登場した「Knowledge base」を試してみた（Pinecone 利用編）&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://zenn.dev/kun432/scraps/c3d65c44e60755"&gt;Amazon Bedrock for Knowledge base を試す&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://dev.classmethod.jp/articles/try-bedrock-knowledge-base/"&gt;[やってみた]Amazon Bedrock の Knowledge base を触ってみた #AWSreInvent&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://blog.serverworks.co.jp/easy-rag-setup-knowledge-base-for-amazon-bedrock-aurora-serverless"&gt;【コピペで RAG 構築】Knowledge Base for Amazon Bedrock(Aurora Serverless v2 for PostgreSQL)&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://blog.serverworks.co.jp/bedrock-knowledge-base"&gt;【re:Invent 2023】Knowledge base for Amazon Bedrock が GA したので解説します&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://qiita.com/t_tsuchida/items/7596e2d8384999e24c61"&gt;Amazon Bedrock の Knowledge base を試す&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;a href="https://dev.classmethod.jp/articles/update-reinvent2023-bedrock-rag/"&gt;[アップデート] Amazon Bedrock で簡単に RAG が実現できる、Retrieval Augmented Generation (RAG) with Knowledge Base がとうとう GA になりました！！ #AWSreinvent&lt;/a&gt;&lt;/p&gt;</description></item><item><title>生成AI: RAG</title><link>https://hdknr.github.io/blogs/posts/2024/02/%E7%94%9F%E6%88%90ai-rag/</link><pubDate>Mon, 12 Feb 2024 00:00:00 +0000</pubDate><guid>https://hdknr.github.io/blogs/posts/2024/02/%E7%94%9F%E6%88%90ai-rag/</guid><description>&lt;h1 id="rag検索拡張生成"&gt;RAG(検索拡張生成)&lt;/h1&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;大規模な言語モデルの出力を最適化するプロセスです。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;応答を生成する前に、トレーニングデータソース以外の信頼できる知識ベースを参照します。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;大規模言語モデル (LLM) は、膨大な量のデータに基づいてトレーニングされ、何十億ものパラメーターを使用して、質問への回答、言語の翻訳、文章の完成などのタスクのためのオリジナルの出力を生成します。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;LLM の既に強力な機能を、モデルを再トレーニングすることなく、特定の分野や組織の内部ナレッジベースに拡張します。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;LLM のアウトプットを改善するための費用対効果の高いアプローチであるため、さまざまな状況で関連性、正確性、有用性を維持できます。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;外部ソースから取得した情報を用いて、生成 AI モデルの精度と信頼性を向上させるテクノロジです。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="基盤モデルfm"&gt;基盤モデル(FM)&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://aws.amazon.com/jp/what-is/foundation-models/"&gt;基盤モデルとは何ですか?&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;例:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;BERT&lt;/li&gt;
&lt;li&gt;GPT(OpenAI)&lt;/li&gt;
&lt;li&gt;Titan(Amazon)&lt;/li&gt;
&lt;li&gt;Jurassic(AI21)&lt;/li&gt;
&lt;li&gt;Claude(Anthropic)&lt;/li&gt;
&lt;li&gt;Cohere&lt;/li&gt;
&lt;li&gt;Stable Diffusion&lt;/li&gt;
&lt;li&gt;BLOOM&lt;/li&gt;
&lt;li&gt;Hugging Face&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="bedlock"&gt;Bedlock&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href="https://www.insurtechlab.net/use_amazon_bedrock/"&gt;Amazon Bedrock 使ってみた&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Amazon SageMaker は機械学習の包括的なライフサイクル（構築、訓練、展開）をサポートする&lt;/li&gt;
&lt;li&gt;Bedrock は Fine-tuning は出来るものの基本的には Amazon Titan や AI スタートアップの基盤モデル（FM）を API から利用することに重きを置いています。&lt;/li&gt;
&lt;li&gt;自分たちで最初から構築したモデルでなければビジネスとして成り立たないシーンでは、Amazon Bedrock を選択してはいけません。&lt;/li&gt;
&lt;li&gt;非常に厳しいセキュリティ要件がある場合にも避けた方が良い&lt;/li&gt;
&lt;/ul&gt;</description></item></channel></rss>