「Claude Code が無料で無制限」は本当か — ollama launch claude の実態と品質ギャップの正直な話

@TusharSoni014 氏の X 投稿が 10 万回以上表示され、2,227 件のブックマークを集めています。

Want Claude Code Unlimited FREE? Follow,

  • Download Ollama
  • Install Qwen3.5 9B
  • Run this command in your terminal, ollama launch claude –model qwen3.5:9b
  • Enjoy Unlimited Claude Code fully running 100% Free

「Claude Code が完全に無料で無制限に使える」という主張です。1,311 件のいいねと 127 件のリツイートを見ると、多くの人がこの情報に飛びついたことがわかります。

結論から言えば、コマンド自体は実在しますが、「Claude Code が無料で動く」という表現は大きな誤解を招きます。正確に何が起きているのか、何が失われるのかを解説します。

ollama launch claude は実在する

コマンドの正体

ollama launch は、Ollama v0.15 で追加された公式コマンドです。Claude Code、OpenCode、Codex などのコーディングツールを、環境変数や設定ファイルなしで起動できるようにするものです。

1
2
3
4
# 基本的な使い方
ollama launch claude                        # インタラクティブにモデルを選択
ollama launch claude --model qwen3-coder    # モデルを指定して起動
ollama launch claude --model qwen3.5:9b     # ツイートの例

このコマンドが裏でやっていることは、Ollama の Anthropic Messages API 互換モードを利用して、ローカルの LLM を Claude Code のバックエンドとして接続することです。

ollama launch claude が行う設定:

  環境変数の自動設定:
    ANTHROPIC_AUTH_TOKEN=ollama
    ANTHROPIC_API_KEY=""(空白)
    ANTHROPIC_BASE_URL=http://localhost:11434

  → Claude Code CLI が起動
  → API リクエストは Anthropic ではなくローカルの Ollama に送信
  → Ollama が Qwen3.5 等のローカルモデルで応答

つまり、Claude Code の CLI インターフェースを使っているが、中身は Claude ではない。これが「無料の Claude Code」の正体です。

何が「Claude Code」で、何がそうでないか

Claude Code の 2 つの側面

Claude Code には 2 つの側面があります。

Claude Code の構成:

  [1] CLI インターフェース(オープンソース):
      ├── ターミナルベースの対話 UI
      ├── ファイル読み書き
      ├── Bash コマンド実行
      ├── Git 操作
      └── ツール使用の権限管理
      → これは誰でも無料で使える

  [2] バックエンドモデル(Claude Opus / Sonnet):
      ├── コード理解・生成の知能
      ├── 複雑な推論能力
      ├── 長文コンテキストの処理
      └── エージェント的な判断力
      → これが Anthropic の API 課金対象

ollama launch claude は、[1] の CLI は本物の Claude Code を使いつつ、[2] のモデルをローカル LLM に差し替えます。「Claude Code の体で中身は Qwen」という状態です。

車に例えると

たとえ話:

  Claude Code(API 版):
    フェラーリのボディ + フェラーリのエンジン

  ollama launch claude --model qwen3.5:9b:
    フェラーリのボディ + 軽自動車のエンジン

  見た目は同じ。運転席の操作も同じ。
  だがアクセルを踏んだときの加速が全く違う。

品質ギャップ — 何が失われるか

ベンチマークで見る差

SWE-Bench(実際のソフトウェアバグ修正タスク)での比較です。

モデルSWE-Bench スコア備考
Claude Opus 4.580.9%Claude Code のデフォルト
Claude Sonnet 4.577.2%コスト効率重視の選択肢
Qwen3-Coder(大型)70.6%OSS 最高峰クラス
Qwen3.5 9B上記より大幅に低い見込み

Qwen3-Coder の大型モデルでさえ Claude Opus との差は 10 ポイント以上あります。ツイートで推奨されている Qwen3.5 9B はさらに小さいモデルであり、性能差はより大きくなります。

実務で起きること

Claude Opus 4.5 でできるが、9B ローカルモデルでは難しいこと:

  1. 複雑なリファクタリング:
     複数ファイルにまたがる大規模な構造変更。
     依存関係の把握と整合性の維持が必要

  2. バグの根本原因分析:
     スタックトレースからコードベース全体を横断して
     原因を特定する推論チェーン

  3. アーキテクチャ設計:
     「この機能をどう実装すべきか」の設計判断。
     トレードオフの分析と最適な選択

  4. 長いコンテキストの維持:
     大規模プロジェクトでの一貫した作業。
     ファイル間の関係性を記憶しながらの編集
9B ローカルモデルでも実用的なこと:

  1. 単純なコード生成:
     「この関数を書いて」レベルの指示

  2. 小規模な修正:
     1 ファイル内の軽微なバグ修正

  3. コードの説明:
     既存コードの解説(ただし精度は劣る)

  4. テンプレート生成:
     ボイラープレートコードの生成

ハードウェア要件

「無料」ではあるが、ハードウェアコストは発生します。

Qwen3.5 9B を快適に動かすために:

  最低要件:
    16GB RAM(Apple Silicon)または
    16GB VRAM(NVIDIA GPU)

  推奨要件:
    32GB RAM(Apple Silicon)または
    24GB VRAM(RTX 4090 等)

  Claude Code が推奨するコンテキスト長:
    64,000 トークン以上
    → 9B モデルでこのコンテキスト長を確保するには
      かなりのメモリが必要

正しい使い分け

ローカルモデルが適するケース

ollama launch claude が有効な場面:

  ○ API クォータを使い切ったときの補助:
    メインは Anthropic API、
    クォータ切れ時にローカルにフォールバック

  ○ オフライン環境:
    飛行機内、ネットワーク制限のある環境

  ○ データセキュリティ:
    コードを外部に送信できない環境
    → ローカル完結が必須

  ○ 学習目的:
    Claude Code の操作に慣れるための練習

  ○ 軽作業:
    単純なコード生成、フォーマット修正、
    テンプレート生成

API 版が必要なケース

Anthropic API が必要な場面:

  ○ 本番プロジェクトの開発:
    品質と信頼性が求められる実務

  ○ 複雑なタスク:
    マルチファイル編集、大規模リファクタリング

  ○ エージェント的な作業:
    複数ステップの自律的な問題解決

  ○ 長いセッション:
    大規模コードベースでの継続的な作業

より実用的なローカルモデルの選択肢

ツイートでは Qwen3.5 9B が推奨されていますが、Claude Code でローカルモデルを使うならより適した選択肢があります。

モデルパラメータ特徴推奨 RAM
qwen3-coder8B/30Bコーディング特化、Claude Code 公式推奨16GB/32GB
glm-4.7-flash高速、128K コンテキスト16GB
gpt-oss:20b20B汎用的、バランス型32GB
qwen3-coder-nextエージェント的ワークフロー対応32GB+

Ollama の公式ドキュメントでは qwen3-coder、glm-4.7、gpt-oss が推奨されています。Qwen3.5 9B は汎用モデルであり、コーディング特化ではありません。

AI 煽りの構造

なぜこの種のツイートがバズるのか

バズの構造:

  「Claude Code が無料!」
    → 高額サービスが無料になるという期待
    → 「裏技を知っている自分」という優越感
    → ブックマーク 2,227 件(実際に試す前に保存)

  実態:
    Claude Code の CLI が動くだけで、
    中身のモデルは別物。
    「メルセデスのロゴをつけた軽自動車」に近い。

この種の投稿は以前の記事「Claude Code 無料最強は本当か」で分析した Accomplish のケースと同じ構造です。技術的に不正確ではないが、期待と現実のギャップが大きいという問題です。

ファクトチェックの視点

主張判定実態
「Claude Code が無料」誤解を招くCLI は無料だが、モデルは Claude ではない
「Unlimited」部分的に正しいAPI 制限はないが、ハードウェア制約はある
「100% Free」部分的に正しいAPI 費用は不要だが、電気代・ハードウェアコストは発生
「fully running」誤解を招くCLI は動くが、性能は大幅に劣る
「ollama launch claude」正しいOllama v0.15 の公式コマンド

まとめ

  • ollama launch claude は実在するコマンド: Ollama v0.15 の公式機能。環境変数設定なしで Claude Code CLI をローカルモデルで起動できる
  • 「Claude Code が無料」は誤解を招く表現: 動くのは Claude Code の CLI インターフェースであり、バックエンドは Qwen3.5 等のローカルモデル。Claude の知能は含まれない
  • 品質ギャップは大きい: SWE-Bench で Claude Opus 4.5 は 80.9%、Qwen3-Coder 大型でも 70.6%。9B モデルではさらに差が開く
  • コーディング特化モデルを使うべき: ツイート推奨の Qwen3.5 9B は汎用モデル。Ollama 公式推奨は qwen3-coder、glm-4.7、gpt-oss
  • ローカルモデルには正当なユースケースがある: API クォータ切れ時のフォールバック、オフライン環境、データセキュリティ要件、軽作業には有効
  • 「無料」にはハードウェアコストが伴う: 快適に動かすには 32GB RAM(Apple Silicon)または 24GB VRAM(NVIDIA GPU)が推奨
  • AI 煽りの構造を見抜く: 「高額サービスが無料」という期待が先行し、品質差やハードウェア要件が見落とされるパターン

参考