「Claude Code が無料で無制限」は本当か — ollama launch claude の実態と品質ギャップの正直な話
@TusharSoni014 氏の X 投稿が 10 万回以上表示され、2,227 件のブックマークを集めています。
Want Claude Code Unlimited FREE? Follow,
- Download Ollama
- Install Qwen3.5 9B
- Run this command in your terminal, ollama launch claude –model qwen3.5:9b
- Enjoy Unlimited Claude Code fully running 100% Free
「Claude Code が完全に無料で無制限に使える」という主張です。1,311 件のいいねと 127 件のリツイートを見ると、多くの人がこの情報に飛びついたことがわかります。
結論から言えば、コマンド自体は実在しますが、「Claude Code が無料で動く」という表現は大きな誤解を招きます。正確に何が起きているのか、何が失われるのかを解説します。
ollama launch claude は実在する
コマンドの正体
ollama launch は、Ollama v0.15 で追加された公式コマンドです。Claude Code、OpenCode、Codex などのコーディングツールを、環境変数や設定ファイルなしで起動できるようにするものです。
| |
このコマンドが裏でやっていることは、Ollama の Anthropic Messages API 互換モードを利用して、ローカルの LLM を Claude Code のバックエンドとして接続することです。
ollama launch claude が行う設定:
環境変数の自動設定:
ANTHROPIC_AUTH_TOKEN=ollama
ANTHROPIC_API_KEY=""(空白)
ANTHROPIC_BASE_URL=http://localhost:11434
→ Claude Code CLI が起動
→ API リクエストは Anthropic ではなくローカルの Ollama に送信
→ Ollama が Qwen3.5 等のローカルモデルで応答
つまり、Claude Code の CLI インターフェースを使っているが、中身は Claude ではない。これが「無料の Claude Code」の正体です。
何が「Claude Code」で、何がそうでないか
Claude Code の 2 つの側面
Claude Code には 2 つの側面があります。
Claude Code の構成:
[1] CLI インターフェース(オープンソース):
├── ターミナルベースの対話 UI
├── ファイル読み書き
├── Bash コマンド実行
├── Git 操作
└── ツール使用の権限管理
→ これは誰でも無料で使える
[2] バックエンドモデル(Claude Opus / Sonnet):
├── コード理解・生成の知能
├── 複雑な推論能力
├── 長文コンテキストの処理
└── エージェント的な判断力
→ これが Anthropic の API 課金対象
ollama launch claude は、[1] の CLI は本物の Claude Code を使いつつ、[2] のモデルをローカル LLM に差し替えます。「Claude Code の体で中身は Qwen」という状態です。
車に例えると
たとえ話:
Claude Code(API 版):
フェラーリのボディ + フェラーリのエンジン
ollama launch claude --model qwen3.5:9b:
フェラーリのボディ + 軽自動車のエンジン
見た目は同じ。運転席の操作も同じ。
だがアクセルを踏んだときの加速が全く違う。
品質ギャップ — 何が失われるか
ベンチマークで見る差
SWE-Bench(実際のソフトウェアバグ修正タスク)での比較です。
| モデル | SWE-Bench スコア | 備考 |
|---|---|---|
| Claude Opus 4.5 | 80.9% | Claude Code のデフォルト |
| Claude Sonnet 4.5 | 77.2% | コスト効率重視の選択肢 |
| Qwen3-Coder(大型) | 70.6% | OSS 最高峰クラス |
| Qwen3.5 9B | — | 上記より大幅に低い見込み |
Qwen3-Coder の大型モデルでさえ Claude Opus との差は 10 ポイント以上あります。ツイートで推奨されている Qwen3.5 9B はさらに小さいモデルであり、性能差はより大きくなります。
実務で起きること
Claude Opus 4.5 でできるが、9B ローカルモデルでは難しいこと:
1. 複雑なリファクタリング:
複数ファイルにまたがる大規模な構造変更。
依存関係の把握と整合性の維持が必要
2. バグの根本原因分析:
スタックトレースからコードベース全体を横断して
原因を特定する推論チェーン
3. アーキテクチャ設計:
「この機能をどう実装すべきか」の設計判断。
トレードオフの分析と最適な選択
4. 長いコンテキストの維持:
大規模プロジェクトでの一貫した作業。
ファイル間の関係性を記憶しながらの編集
9B ローカルモデルでも実用的なこと:
1. 単純なコード生成:
「この関数を書いて」レベルの指示
2. 小規模な修正:
1 ファイル内の軽微なバグ修正
3. コードの説明:
既存コードの解説(ただし精度は劣る)
4. テンプレート生成:
ボイラープレートコードの生成
ハードウェア要件
「無料」ではあるが、ハードウェアコストは発生します。
Qwen3.5 9B を快適に動かすために:
最低要件:
16GB RAM(Apple Silicon)または
16GB VRAM(NVIDIA GPU)
推奨要件:
32GB RAM(Apple Silicon)または
24GB VRAM(RTX 4090 等)
Claude Code が推奨するコンテキスト長:
64,000 トークン以上
→ 9B モデルでこのコンテキスト長を確保するには
かなりのメモリが必要
正しい使い分け
ローカルモデルが適するケース
ollama launch claude が有効な場面:
○ API クォータを使い切ったときの補助:
メインは Anthropic API、
クォータ切れ時にローカルにフォールバック
○ オフライン環境:
飛行機内、ネットワーク制限のある環境
○ データセキュリティ:
コードを外部に送信できない環境
→ ローカル完結が必須
○ 学習目的:
Claude Code の操作に慣れるための練習
○ 軽作業:
単純なコード生成、フォーマット修正、
テンプレート生成
API 版が必要なケース
Anthropic API が必要な場面:
○ 本番プロジェクトの開発:
品質と信頼性が求められる実務
○ 複雑なタスク:
マルチファイル編集、大規模リファクタリング
○ エージェント的な作業:
複数ステップの自律的な問題解決
○ 長いセッション:
大規模コードベースでの継続的な作業
より実用的なローカルモデルの選択肢
ツイートでは Qwen3.5 9B が推奨されていますが、Claude Code でローカルモデルを使うならより適した選択肢があります。
| モデル | パラメータ | 特徴 | 推奨 RAM |
|---|---|---|---|
| qwen3-coder | 8B/30B | コーディング特化、Claude Code 公式推奨 | 16GB/32GB |
| glm-4.7-flash | — | 高速、128K コンテキスト | 16GB |
| gpt-oss:20b | 20B | 汎用的、バランス型 | 32GB |
| qwen3-coder-next | — | エージェント的ワークフロー対応 | 32GB+ |
Ollama の公式ドキュメントでは qwen3-coder、glm-4.7、gpt-oss が推奨されています。Qwen3.5 9B は汎用モデルであり、コーディング特化ではありません。
AI 煽りの構造
なぜこの種のツイートがバズるのか
バズの構造:
「Claude Code が無料!」
→ 高額サービスが無料になるという期待
→ 「裏技を知っている自分」という優越感
→ ブックマーク 2,227 件(実際に試す前に保存)
実態:
Claude Code の CLI が動くだけで、
中身のモデルは別物。
「メルセデスのロゴをつけた軽自動車」に近い。
この種の投稿は以前の記事「Claude Code 無料最強は本当か」で分析した Accomplish のケースと同じ構造です。技術的に不正確ではないが、期待と現実のギャップが大きいという問題です。
ファクトチェックの視点
| 主張 | 判定 | 実態 |
|---|---|---|
| 「Claude Code が無料」 | 誤解を招く | CLI は無料だが、モデルは Claude ではない |
| 「Unlimited」 | 部分的に正しい | API 制限はないが、ハードウェア制約はある |
| 「100% Free」 | 部分的に正しい | API 費用は不要だが、電気代・ハードウェアコストは発生 |
| 「fully running」 | 誤解を招く | CLI は動くが、性能は大幅に劣る |
| 「ollama launch claude」 | 正しい | Ollama v0.15 の公式コマンド |
まとめ
ollama launch claudeは実在するコマンド: Ollama v0.15 の公式機能。環境変数設定なしで Claude Code CLI をローカルモデルで起動できる- 「Claude Code が無料」は誤解を招く表現: 動くのは Claude Code の CLI インターフェースであり、バックエンドは Qwen3.5 等のローカルモデル。Claude の知能は含まれない
- 品質ギャップは大きい: SWE-Bench で Claude Opus 4.5 は 80.9%、Qwen3-Coder 大型でも 70.6%。9B モデルではさらに差が開く
- コーディング特化モデルを使うべき: ツイート推奨の Qwen3.5 9B は汎用モデル。Ollama 公式推奨は qwen3-coder、glm-4.7、gpt-oss
- ローカルモデルには正当なユースケースがある: API クォータ切れ時のフォールバック、オフライン環境、データセキュリティ要件、軽作業には有効
- 「無料」にはハードウェアコストが伴う: 快適に動かすには 32GB RAM(Apple Silicon)または 24GB VRAM(NVIDIA GPU)が推奨
- AI 煽りの構造を見抜く: 「高額サービスが無料」という期待が先行し、品質差やハードウェア要件が見落とされるパターン
参考
- @TusharSoni014 氏のポスト
- Ollama 公式: ollama launch
- Ollama 公式: Claude Code 統合ドキュメント
- Ollama 公式: Claude Code with Anthropic API compatibility
- DataCamp: Using Claude Code With Ollama Local Models
- Towards Data Science: Run Claude Code for Free with Local and Cloud Models from Ollama
- CodeMiner42: Claude Code + Ollama: Stress Testing Opus 4.5 vs GLM 4.7
- XDA Developers: I finally found a local LLM I actually want to use for coding
- VentureBeat: Alibaba’s new Qwen3.5-Medium models offer Sonnet 4.5 performance
- marc0.dev: Best AI for Coding 2026 — SWE-Bench Breakdown