Claude Code の生成コードをローカル LLM でレビューする 3 つの構成パターン

Claude Code の生成コードをローカル LLM でレビューする 3 つの構成パターン Claude Code は強力なコード生成能力を持ちますが、生成されたコードを別の視点でレビューしたい場面があります。クラウド API にコードを送りたくない場合や、コスト削減のためにローカル LLM を活用したい場合です。 この記事では、Ollama + Qwen3(ローカル LLM)と OpenHands(オープンソースのコーディングエージェント)を組み合わせて、Claude Code の生成コードを自動レビューする 3 つの構成パターンを紹介します。 前提となる構成 以下のツールがインストール済みであることを前提とします。 ツール 役割 インストール Claude Code コード生成(エージェント) npm install -g @anthropic-ai/claude-code Ollama ローカル LLM 実行(ランタイム) ollama.com Qwen3 レビュー用 AI モデル(LLM) ollama pull qwen3:14b OpenHands レビュー実行(エージェント)※パターン 2・3 pip install openhands-ai 構成図で示すと、Claude Code(クラウド)が書いたコードを、ローカル環境でレビューする構造です。 Claude Code(Anthropic API) ↓ コードを生成・編集 ローカルリポジトリ(あなたの PC) ↓ レビュー依頼 OpenHands / Git フック ↓ Ollama(ローカルランタイム) ↓ Qwen3(ローカル LLM)→ レビュー結果を出力 パターン 1:Git フック + Ollama 直接呼び出し(最もシンプル) OpenHands は不要です。Claude Code がコミットするタイミングで、Git の pre-commit フックが Ollama に差分を送り、Qwen3 にレビューさせます。 ...

2026年3月4日 · 4 分

Claude Cowork を最強にする 17 の方法 --- プロンプトではなく「設計」で差がつくシステム工学

Claude Cowork を最強にする 17 の方法 — プロンプトではなく「設計」で差がつくシステム工学 @masahirochaen 氏が X で投稿した、Claude Cowork のベストプラクティス解説が反響を呼んでいます。 海外でバズった「Claude Cowork を最強にする 17 の方法」の学びが深い。プロンプト力ではなく「仕組み」で差がつく 元になっているのは @heynavtoor(Nav Toor)氏の X Article「17 Best Practices That Make Claude Cowork 100x More Powerful」です。Nav Toor 氏は 2026 年 1 月 12 日から Cowork を使い始め、7 週間で 400 セッション以上を重ねた経験をもとに、Anthropic が公式ドキュメントに書いていない 17 の実践法をまとめています。いいね 3,194、ブックマーク 13,149、閲覧 188 万超と大きな反響を得ました。本記事では、この 17 の方法を技術的に掘り下げて解説します。 Claude Cowork とは Claude Code との違い Claude Cowork は、Anthropic が提供する非エンジニア向けの AI エージェント環境です。Claude Code がターミナルベースの開発者向けツールであるのに対し、Cowork は Claude デスクトップアプリ内で動作する GUI ベースの作業環境です。 ...

2026年3月4日 · 5 分

OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす

OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす OpenHands とは OpenHands(旧 OpenDevin)は、AI が自律的にコードを書き、デバッグし、テストを実行するオープンソースのコーディングエージェントです。MIT ライセンスで完全無料、GitHub で 68,000 スター以上を獲得し、479 名以上のコントリビューターが参加しています。 簡単に言えば、「Claude Code や Devin のオープンソース版」です。自然言語で「この関数のテストを書いて」「このバグを直して」と指示するだけで、AI がファイルを読み、コードを編集し、ターミナルでコマンドを実行して、タスクを完了させます。 LLM・ランタイム・エージェントの 3 層構造における位置づけ AI ツールを理解する上で、3 つの層を区別することが重要です。 あなた ↓ 「このバグを直して」 エージェント(OpenHands) ← コードを読み、修正し、テストを実行する「ドライバー」 ↓ 「この質問を LLM に投げて」 ランタイム(Ollama 等) ← LLM を動かす「エンジン」 ↓ LLM(Qwen3, Claude 等) ← 回答を生成する「頭脳」 層 役割 OpenHands の場合 LLM 言語理解・コード生成 Claude, GPT, Qwen3 など(選択可能) ランタイム LLM の実行環境 Anthropic API / OpenAI API / Ollama エージェント 自律的にタスクを遂行 OpenHands がここ OpenHands の最大の特徴はモデル非依存であることです。クラウド API(Claude, GPT)でも、ローカル LLM(Ollama + Qwen3)でも動作します。 ...

2026年3月4日 · 3 分

SoRからSoAへ — エージェント時代に業務ソフトウェアの「どの層」が死ぬのか

SoR から SoA へ — エージェント時代に業務ソフトウェアの「どの層」が死ぬのか Yuichiro Ito(@110110110110) 氏(Finatext CFO)が、AIエージェント時代における業務ソフトウェアの構造変化を分析した note 記事を公開しました。 「SaaS is Dead」の議論が盛り上がっていますが、「死ぬか死なないか」の二者択一ではなく、もっと本質的な構造変化が起きていると思っています。UIレイヤーの価値は消滅し、SoRが長年築いてきた Moat も弱体化し、独占寡占が当たり前だった SoR 市場に、千載一遇のチャンスが生まれています。 — @110110110110 元記事: 【SoR→SoA】エージェント時代に訪れる千載一遇のチャンス 「SaaS は死ぬのか?」という問いは不毛です。正しい問いは「業務ソフトウェアのどの層の価値が、どう変わるのか?」です。本記事では、伊藤氏の論考を軸に、SoR(System of Record)から SoA(System of Action)への構造変化を解説します。 「SaaS is Dead」論争の経緯 2026 年に入り、「SaaS の終焉」を巡る議論が急速に加熱しています。 時期 出来事 2024 年末 Microsoft CEO ナデラ氏が「AIエージェントが主流になれば従来型 SaaS が崩壊する可能性」に言及 2025 年 YC パートナー Jared Friedman 氏が「Vertical AI Agents は SaaS の 10 倍の市場規模になる」と予測 2026 年 1 月 Anthropic が Claude Opus 4.6 と Cowork を発表。SaaS 銘柄が急落し、約 43 兆円の時価総額が消失 2026 年 2 月 OpenAI CEO Sam Altman がシスコ AI サミットで「SaaS is Dead」を宣言 2026 年 3 月 英語圏で「SaaSocalypse(SaaS の黙示録)」という新語が登場 Sam Altman が提示したのは「Software as a Service」から「Service as Software」への反転です。人間がソフトウェアを操作するのではなく、AI が主体的にサービスを提供する世界への転換を意味しています。 ...

2026年3月4日 · 3 分

.envの代わりにlkrでLLM APIキーを安全に管理する — セットアップからClaude Code連携まで

.env の代わりに lkr で LLM API キーを安全に管理する — セットアップから Claude Code 連携まで AI エージェントがローカルファイルを読み書きする時代、.env に平文で置いた API キーが LLM のコンテキストに載るリスクが現実のものになっています。前回の記事ではこの問題の全体像を、aws-vault の記事では AWS 認証情報の保護を解説しました。 本記事では、LLM Key Ring(lkr)を使って LLM API キーを安全に管理する具体的な手順を解説します。aws-vault が AWS 認証情報に特化しているのに対し、lkr は OpenAI・Anthropic・Google など LLM API キーの管理に特化したツールです。 lkr が解決する問題 .env に LLM API キーを置くリスク 多くの開発者は .env ファイルに API キーを平文で保存しています。 1 2 3 # .env(平文で保存されている) OPENAI_API_KEY=sk-proj-xxxxxxxxxxxxxxxxxxxx ANTHROPIC_API_KEY=sk-ant-xxxxxxxxxxxxxxxxxxxx このファイルには4つの攻撃ベクトルがあります。 攻撃ベクトル 説明 Git への混入 .gitignore に頼るヒューマンエラー。うっかりコミットは後を絶たない シェル履歴への漏洩 export OPENAI_API_KEY=sk-... が ~/.bash_history に残る プロセス情報への露出 ps コマンドで環境変数が見える AI エージェントによる抽出 Claude Code がファイルを読み取り、LLM の API リクエストに含まれる 4番目が AI 時代に特有の脅威です。Claude Code は.env ファイルを自動的に読み込むことが確認されており、API キーが意図せず Anthropic のサーバーに送信されるリスクがあります。 ...

2026年3月3日 · 8 分

「AIが覚醒する魔法の言葉」は本当に効くのか — プロンプトエンジニアリングの実態と公式ガイドの教え

「AIが覚醒する魔法の言葉」は本当に効くのか — プロンプトエンジニアリングの実態と公式ガイドの教え @fit_youtubead 氏のポストが、Claude と ChatGPT で使える「魔法のプロンプト」を紹介し、大きな反響を呼んでいます。 「最高の専門家として、思考プロセスを分解し、初心者にも再現できる形で5ステップで出力してください」 これだけ。なぜ強いのか?理由は3つ。 役割を与える → AIの精度が跳ね上がる 思考を分解させる → 中身が薄くならない 再現性を指定する → 実用的で使えるアウトプットになる 確かに、雑な指示よりも構造化された指示の方が良い結果を得られるのは事実です。しかし「魔法の言葉」と呼ぶには、いくつか知っておくべきことがあります。本記事では、ツイートで紹介された3つのテクニックを、Anthropic と OpenAI の公式ガイドおよび研究論文に照らし合わせて検証します。 テクニック1: 役割を与える(ロールプロンプティング) 「最高の専門家として」のように、AI に特定の役割やペルソナを与えるテクニックです。 公式ガイドの見解 Anthropic はプロンプトエンジニアリングのベストプラクティスで、ロールプロンプティングを推奨テクニックの1つとして挙げています。「法律アドバイザー」「データアナリスト」「カスタマーサポート担当」のように、具体的な文脈に合わせてモデルの声とふるまいを調整する手法です。 OpenAI も公式ガイドでシステムプロンプトによる役割設定を推奨しています。 研究が示す実態 ところが、学術的な研究を見ると、ロールプロンプティングの効果は「場合による」というのが正確な答えです。 研究 結果 対象モデル Better Zero-Shot Reasoning with Role-Play Prompting AQuA データセットで精度が53.5%→63.8%に向上(+10.3pt) GPT-3.5 ExpertPrompting 詳細な専門家ペルソナが単純なペルソナを大幅に上回る 複数モデル When “A Helpful Assistant” Is Not Really Helpful 追加のペルソナは性能を向上させない 4モデルファミリー Persona is a Double-edged Sword GPT-4ではペルソナの有無で差は最小限 GPT-4 PromptHub の検証記事は、これらの研究を総合して以下のように結論づけています。 創作的なタスク(文体の調整、トーンの統一)では効果がある 精度ベースのタスク(分類、計算、ファクトチェック)では、新しいモデルほど効果が薄い 「天才ペルソナが愚か者ペルソナより劣る」という矛盾した結果も報告されている つまり、「専門家として」と付けるだけで「精度が跳ね上がる」わけではありません。効果があるのは、役割指定によってモデルの出力スタイルや視点が適切に制約されるケースです。 ...

2026年3月3日 · 2 分

AI が書いた CLAUDE.md は逆効果 --- 「コンテキストファイルの自動生成は精度を下げる」という研究

AI が書いた CLAUDE.md は逆効果 — 「コンテキストファイルの自動生成は精度を下げる」という研究 @at_sushi_(門脇敦司)氏が X で投稿した、AI 生成のプロンプトファイルに関する記事が注目を集めています。 CLAUDE.md のようなプロンプトファイルを AI に生成させると「逆に精度が下がる」という研究です。AI 文書は冗長で、AI 自身を混乱させます。では、どうすればいいのか? というと、「本当に重要な情報だけを、開発者が書く」というのが現在の正解です 元記事は Zenn の解説記事で、ETH Zurich と LogicStar.ai の研究チーム(Gloaguen et al.)による論文「Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?」を日本語で紹介しています。本記事では、この研究の実験データを詳しく読み解き、CLAUDE.md / AGENTS.md の書き方への実践的な示唆を整理します。 研究の概要 — 何を検証したのか 背景 CLAUDE.md、AGENTS.md、CURSORRULES — これらの「コンテキストファイル」は、AI コーディングエージェントにリポジトリの慣習や制約を伝えるための指示書です。Anthropic、OpenAI、Cursor はいずれもこれらのファイルの作成を強く推奨しています。 しかし、「コンテキストファイルは本当にエージェントの性能を向上させるのか?」 という基本的な問いに対して、厳密な検証はこれまで行われていませんでした。 実験設計 ETH Zurich の研究チームは、3 つの条件で比較実験を実施しました。 条件 内容 なし(None) コンテキストファイルなし(ベースライン) LLM 生成 エージェント開発者の推奨に従い LLM に自動生成させたファイル 人間作成 開発者がリポジトリにコミットしたファイル 評価対象モデル: Claude Code(Sonnet 4.5)、Codex(GPT-5.2 / GPT-5.1 mini)、Qwen Code(Qwen3-30b-coder) ...

2026年3月3日 · 3 分

AI の名前に刻まれた「情報理論の父」--- Claude Shannon が LLM の数学的基盤を作った

AI の名前に刻まれた「情報理論の父」— Claude Shannon が LLM の数学的基盤を作った @finalvent 氏が X で投稿した、Anthropic の AI「Claude」の名前の由来に関するポストが注目を集めています。 Claudeって、Claude Shannonに因んでるのか。知らなかった。 この一見シンプルな気づきは、現代の AI 技術と 78 年前の数学理論をつなぐ深い糸を浮かび上がらせます。Anthropic がなぜ自社の AI に「Claude」と名付けたのか — その理由を理解するには、Claude Elwood Shannon(1916-2001)が何を成し遂げたのかを知る必要があります。 Claude Shannon とは誰か 「情報の時代」を切り拓いた数学者 Claude Elwood Shannon は、1916 年 4 月 30 日、アメリカ・ミシガン州ペトスキーに生まれました。ミシガン大学で数学と電気工学の二重学位を取得した後、MIT の修士課程で書いた論文が、すでに歴史的な業績でした。 1937 年の修士論文 — 「A Symbolic Analysis of Relay and Switching Circuits」— は、ブール代数(真/偽の論理演算)を電気回路のスイッチに対応させるという発想を初めて体系化しました。この論文により、複雑な論理をスイッチの ON/OFF の組み合わせで実現できることが数学的に証明され、デジタルコンピュータの設計基盤が確立されました。 この修士論文は「20 世紀で最も重要な修士論文」と呼ばれることがあります。私たちが毎日使うスマートフォン、PC、サーバー — すべてのデジタル機器は、Shannon が 21 歳で示した原理の上に成り立っています。 ベル研究所と MIT Shannon は 1941 年から 1972 年までベル研究所(Bell Labs)に在籍しました。当時のベル研究所は、トランジスタの発明(1947 年)、UNIX オペレーティングシステム、C 言語など、現代のコンピューティングの基盤技術を次々に生み出した「イノベーションの殿堂」です。 ...

2026年3月3日 · 3 分

Claude Code サンドボックス完全解説 — chroot ではない、カーネルレベル隔離の仕組みと実践設定

Claude Code サンドボックス完全解説 — chroot ではない、カーネルレベル隔離の仕組みと実践設定 「Claude Code のサンドボックスって、要するに chroot でしょ?」という誤解をよく耳にします。答えは明確にノーです。Claude Code のサンドボックスは chroot とは次元の異なるカーネルレベルの隔離機構で、ファイルシステムとネットワークの2層を OS プリミティブで強制します。 Anthropic のエンジニアリングブログによると、サンドボックスにより承認プロンプトが84%削減されました。セキュリティと生産性を両立する仕組みの全貌を、技術的な背景から実践設定まで解説します。 chroot との決定的な違い まず「chroot で十分か」という疑問に答えます。結論から言えば、chroot はセキュリティ対策として設計されていません。 隔離技術の比較 Practical CTF の解説を基に、主要な隔離技術を比較します。 技術 制限対象 脱出の容易さ 設計目的 chroot ファイルシステムのパス解決のみ 容易(root 権限で即脱出) 組織的なツール(セキュリティ目的ではない) seccomp システムコール 中程度(許可リストの漏れを突く) セキュリティ機構 namespaces プロセス、ネットワーク、マウント 困難(適切設定時) コンテナ隔離 Seatbelt ファイル、ネットワーク、IPC、プロセス 困難(カーネルレベル強制) アプリケーション隔離 chroot の脱出方法 chroot がセキュリティ対策に不十分な理由を具体的に示します。 カレントディレクトリ攻撃: chroot 実行時にカレントディレクトリが jail 外にあれば、相対パスで脱出可能 二重 chroot: 別の chroot を実行して前の制限を上書き ファイルディスクリプタ: jail 外で開かれた fd を経由してアクセス openat syscall: ディレクトリ fd を使って jail 外のファイルを操作 つまり chroot は「ルートディレクトリの表示を変えるだけ」であり、ネットワーク制限もシステムコール制限もありません。AI エージェントのサンドボックスとしては全く不十分です。 ...

2026年3月3日 · 6 分

Claude Code に「目」を与える --- ローカル VLM で画像・動画をコンテキスト消費ゼロで理解させる

Claude Code に「目」を与える — ローカル VLM で画像・動画をコンテキスト消費ゼロで理解させる @ShadeLurk 氏が X で公開した記事が注目を集めています。 Claude Code に「目」を作る — コンテキストを 1 トークンも使わずに動画を理解させる方法 Claude Code で画像や動画を扱うと、1 枚あたり数千トークンがコンテキストから消えます。ローカル VLM(Qwen3-VL 等)を MCP サーバー経由で接続し、画像処理をオフロードすることで、Claude Code のコンテキストを一切消費せずにビジュアル情報を扱う手法が提案されています。本記事では、この問題の構造と解決アプローチを技術的に解説します。 問題 — 画像 1 枚で数千トークンが消える Claude のビジョン処理とトークン消費 Claude API でのビジョン処理は、画像をトークンに変換してコンテキストウィンドウに載せる仕組みです。Anthropic の公式ドキュメントによると、トークン消費量は以下の式で算出されます。 tokens = (width px × height px) / 750 画像サイズ トークン数 1,000 枚あたりのコスト 200x200 px(0.04 MP) 約 54 約 $0.16 1000x1000 px(1 MP) 約 1,334 約 $4.00 1092x1092 px(1.19 MP) 約 1,590 約 $4.80 1 枚の高解像度スクリーンショットで 約 1,600 トークンが消費されます。Claude Code のコンテキストウィンドウは約 200,000 トークンですが、システムプロンプト・CLAUDE.md・会話履歴・MCP ツール定義などが既に占有しているため、実質的に使える容量は限られています。 ...

2026年3月3日 · 4 分