OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす
OpenHands とは
OpenHands(旧 OpenDevin)は、AI が自律的にコードを書き、デバッグし、テストを実行するオープンソースのコーディングエージェントです。MIT ライセンスで完全無料、GitHub で 68,000 スター以上を獲得し、479 名以上のコントリビューターが参加しています。
簡単に言えば、「Claude Code や Devin のオープンソース版」です。自然言語で「この関数のテストを書いて」「このバグを直して」と指示するだけで、AI がファイルを読み、コードを編集し、ターミナルでコマンドを実行して、タスクを完了させます。
LLM・ランタイム・エージェントの 3 層構造における位置づけ
AI ツールを理解する上で、3 つの層を区別することが重要です。
あなた
↓ 「このバグを直して」
エージェント(OpenHands) ← コードを読み、修正し、テストを実行する「ドライバー」
↓ 「この質問を LLM に投げて」
ランタイム(Ollama 等) ← LLM を動かす「エンジン」
↓
LLM(Qwen3, Claude 等) ← 回答を生成する「頭脳」
| 層 | 役割 | OpenHands の場合 |
|---|---|---|
| LLM | 言語理解・コード生成 | Claude, GPT, Qwen3 など(選択可能) |
| ランタイム | LLM の実行環境 | Anthropic API / OpenAI API / Ollama |
| エージェント | 自律的にタスクを遂行 | OpenHands がここ |
OpenHands の最大の特徴はモデル非依存であることです。クラウド API(Claude, GPT)でも、ローカル LLM(Ollama + Qwen3)でも動作します。
OpenHands でできること
OpenHands は単にコードを生成するだけでなく、開発者と同じ操作を自律的に行います。
| 機能 | 説明 |
|---|---|
| コード生成 | 自然言語の指示からコードを書く |
| バグ修正 | エラーログを読み、原因を特定し、修正する |
| テスト作成・実行 | テストコードを書き、実行して結果を確認する |
| ファイル操作 | ファイルの作成・編集・削除・検索 |
| シェル操作 | ターミナルコマンドの実行(ビルド、デプロイ等) |
| ブラウジング | Web ページの閲覧・情報収集 |
| リファクタリング | コードの構造改善・最適化 |
4 つの使い方
OpenHands には、用途に応じた 4 つの利用方法があります。
1. CLI(最も手軽)
ターミナルから直接使えます。Docker 不要で、pip でインストールするだけです。
| |
Python 環境を自分で管理したくない場合は、uvx を使う方法もあります。
| |
CLI では対話形式で AI に指示を出します。Claude Code と同様の体験が、オープンソースで得られます。
| |
2. ローカル GUI
Web ブラウザ上で操作できる GUI サーバーを起動します。
| |
起動後、ブラウザで http://localhost:3000 にアクセスすると、チャット形式の UI でエージェントと対話できます。
3. OpenHands Cloud
openhands.dev で GitHub / GitLab アカウントでログインすれば、インストール不要で即座に試用できます。
4. SDK(開発者向け)
Python ライブラリとしてエージェントをプログラムに組み込めます。ローカルの 1 エージェントから、クラウド上の数千エージェントまでスケール可能です。
Claude Code との比較
OpenHands CLI は「オープンソース版 Claude Code」として位置づけられています。
| 比較項目 | OpenHands CLI | Claude Code |
|---|---|---|
| ライセンス | MIT(完全オープンソース) | プロプライエタリ |
| 料金 | 無料(LLM の API 費用は別途) | Claude サブスクリプション必要 |
| 対応モデル | Claude, GPT, Gemini, Qwen3 など自由に選択 | Claude のみ |
| ローカル LLM | Ollama 等で完全ローカル実行可能 | 不可(クラウド API 必須) |
| SWE-bench Verified | 77.6% | トップクラス |
| インストール | pip install openhands-ai | npm install -g @anthropic-ai/claude-code |
OpenHands の強み: モデルに縛られない自由度と、完全ローカル実行によるプライバシー保護。
Claude Code の強み: Anthropic の最新モデルとの深い統合による安定した品質。
Ollama + Qwen3 でローカル実行する
OpenHands を完全ローカルで動かすには、Ollama と組み合わせます。
前提条件
- Ollama がインストール済みであること
- VRAM 16 GB 以上の GPU(推奨)
ステップ 1:Ollama の設定
OpenHands は大きなコンテキストサイズを必要とします。デフォルトの 4096 では不足するため、最低 22,000 に設定してください。
| |
ステップ 2:推奨モデルのダウンロード
公式ドキュメントでは、コーディングタスクに最適化された Qwen3-Coder が推奨されています。
| |
VRAM が不足する場合は、より小さいモデルも使えます。
| |
ステップ 3:OpenHands の設定
OpenHands の設定画面(GUI の場合)または環境変数(CLI の場合)で以下を指定します。
| 設定項目 | 値 |
|---|---|
| カスタムモデル | openai/qwen3-coder:30b |
| Base URL | http://localhost:11434/v1 |
| API キー | dummy(ローカルなので任意の値) |
完全ローカル構成の全体像
あなた
↓ 「FizzBuzz を Python で書いて」
OpenHands(エージェント)
↓ LLM にコード生成を依頼
Ollama(ランタイム) ← http://localhost:11434
↓ モデルを読み込んで推論
Qwen3-Coder 30B(LLM)
↓ コードを生成
OpenHands がファイルに書き込み、テストを実行
すべてが自分の PC 内で完結し、データは一切外部に送信されません。
ローカル実行の現実的な注意点
完全ローカル実行には、いくつかの現実的な制約があります。
パフォーマンス
ローカル LLM での実行は、クラウド API と比べて応答速度が大幅に遅くなります。虎の穴ラボの実践レポートでは、MacBook Pro 上で簡単な Python コード生成に 20〜30 分かかったと報告されています。
推奨構成
| 構成 | 速度 | 品質 | コスト |
|---|---|---|---|
| OpenHands + Claude API | 速い | 最高 | API 従量課金 |
| OpenHands + Ollama + Qwen3-Coder 30B | 遅い | 良好 | 無料(電気代のみ) |
| OpenHands + Ollama + Qwen3 8B | 遅い | そこそこ | 無料(電気代のみ) |
現実的なおすすめ: まずは Claude API や OpenRouter 経由で OpenHands の使い勝手を体験し、プライバシーが必要な場面でローカル LLM に切り替えるのが効率的です。
成功のコツ
- コンテキスト長は必ず拡張する:
OLLAMA_CONTEXT_LENGTH=32768を忘れずに設定 - 量子化レベルを上げる: VRAM に余裕があれば Q5 以上の量子化を使用(Q4 より品質が安定)
- タスクを小さく分割する: 「アプリ全体を作って」ではなく「この関数のテストを書いて」のように具体的に指示
OpenHands LM:専用モデル
OpenHands チームは、ソフトウェアエンジニアリングタスクに特化した独自モデル OpenHands LM も開発しています。
- サイズ: 32B パラメータ
- SWE-bench Verified: 37.2% の解決率
- 必要 GPU: NVIDIA RTX 3090(24GB VRAM)1 枚で動作
- 入手方法: Hugging Face および Ollama で公開
| |
汎用モデル(Qwen3 等)よりもコーディングタスクに特化しているため、ローカル環境で OpenHands を使う場合の選択肢のひとつです。
まとめ
- OpenHands は無料のオープンソース AI コーディングエージェント: Claude Code と同等の機能を MIT ライセンスで提供
- モデル非依存: Claude, GPT, Qwen3 など好きな LLM を選択でき、ベンダーロックインがない
- 4 つの使い方: CLI、ローカル GUI、Cloud、SDK と用途に応じて選べる
- CLI なら pip 一発:
pip install openhands-aiで Docker 不要、すぐに使い始められる - 完全ローカル実行が可能: Ollama + Qwen3 と組み合わせれば、データを一切外部に送信しない環境を構築できる
- ローカル実行は速度に注意: クラウド API のほうが圧倒的に速いため、まずは API で体験してからローカルに移行するのが現実的
- SWE-bench 77.6%: 世界トップクラスのベンチマークスコアで、実用的なコーディング能力を証明