Claude Code の生成コードをローカル LLM でレビューする 3 つの構成パターン
Claude Code の生成コードをローカル LLM でレビューする 3 つの構成パターン Claude Code は強力なコード生成能力を持ちますが、生成されたコードを別の視点でレビューしたい場面があります。クラウド API にコードを送りたくない場合や、コスト削減のためにローカル LLM を活用したい場合です。 この記事では、Ollama + Qwen3(ローカル LLM)と OpenHands(オープンソースのコーディングエージェント)を組み合わせて、Claude Code の生成コードを自動レビューする 3 つの構成パターンを紹介します。 前提となる構成 以下のツールがインストール済みであることを前提とします。 ツール 役割 インストール Claude Code コード生成(エージェント) npm install -g @anthropic-ai/claude-code Ollama ローカル LLM 実行(ランタイム) ollama.com Qwen3 レビュー用 AI モデル(LLM) ollama pull qwen3:14b OpenHands レビュー実行(エージェント)※パターン 2・3 pip install openhands-ai 構成図で示すと、Claude Code(クラウド)が書いたコードを、ローカル環境でレビューする構造です。 Claude Code(Anthropic API) ↓ コードを生成・編集 ローカルリポジトリ(あなたの PC) ↓ レビュー依頼 OpenHands / Git フック ↓ Ollama(ローカルランタイム) ↓ Qwen3(ローカル LLM)→ レビュー結果を出力 パターン 1:Git フック + Ollama 直接呼び出し(最もシンプル) OpenHands は不要です。Claude Code がコミットするタイミングで、Git の pre-commit フックが Ollama に差分を送り、Qwen3 にレビューさせます。 ...