OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす

OpenHands とは

OpenHands(旧 OpenDevin)は、AI が自律的にコードを書き、デバッグし、テストを実行するオープンソースのコーディングエージェントです。MIT ライセンスで完全無料、GitHub で 68,000 スター以上を獲得し、479 名以上のコントリビューターが参加しています。

簡単に言えば、「Claude Code や Devin のオープンソース版」です。自然言語で「この関数のテストを書いて」「このバグを直して」と指示するだけで、AI がファイルを読み、コードを編集し、ターミナルでコマンドを実行して、タスクを完了させます。

LLM・ランタイム・エージェントの 3 層構造における位置づけ

AI ツールを理解する上で、3 つの層を区別することが重要です。

あなた
  ↓  「このバグを直して」
エージェント(OpenHands)    ← コードを読み、修正し、テストを実行する「ドライバー」
  ↓  「この質問を LLM に投げて」
ランタイム(Ollama 等)      ← LLM を動かす「エンジン」
  ↓
LLM(Qwen3, Claude 等)    ← 回答を生成する「頭脳」
役割OpenHands の場合
LLM言語理解・コード生成Claude, GPT, Qwen3 など(選択可能)
ランタイムLLM の実行環境Anthropic API / OpenAI API / Ollama
エージェント自律的にタスクを遂行OpenHands がここ

OpenHands の最大の特徴はモデル非依存であることです。クラウド API(Claude, GPT)でも、ローカル LLM(Ollama + Qwen3)でも動作します。

OpenHands でできること

OpenHands は単にコードを生成するだけでなく、開発者と同じ操作を自律的に行います。

機能説明
コード生成自然言語の指示からコードを書く
バグ修正エラーログを読み、原因を特定し、修正する
テスト作成・実行テストコードを書き、実行して結果を確認する
ファイル操作ファイルの作成・編集・削除・検索
シェル操作ターミナルコマンドの実行(ビルド、デプロイ等)
ブラウジングWeb ページの閲覧・情報収集
リファクタリングコードの構造改善・最適化

4 つの使い方

OpenHands には、用途に応じた 4 つの利用方法があります。

1. CLI(最も手軽)

ターミナルから直接使えます。Docker 不要で、pip でインストールするだけです。

1
2
3
4
5
# インストール(Python 3.12 以上が必要)
pip install openhands-ai

# 起動
openhands

Python 環境を自分で管理したくない場合は、uvx を使う方法もあります。

1
uvx --python 3.12 --from openhands-ai openhands

CLI では対話形式で AI に指示を出します。Claude Code と同様の体験が、オープンソースで得られます。

1
2
3
4
5
6
7
8
# ヘッドレスモード(CI/CD や自動化向け)
openhands --headless -t "auth.py のユニットテストを書いて"

# ファイルから指示を読み込む
openhands --headless -f instructions.md

# 過去のセッションを再開
openhands --resume --last

2. ローカル GUI

Web ブラウザ上で操作できる GUI サーバーを起動します。

1
2
3
4
5
6
7
8
# GUI サーバーを起動
openhands serve

# GPU を使う場合
openhands serve --gpu

# 現在のディレクトリをマウント
openhands serve --mount-cwd

起動後、ブラウザで http://localhost:3000 にアクセスすると、チャット形式の UI でエージェントと対話できます。

3. OpenHands Cloud

openhands.dev で GitHub / GitLab アカウントでログインすれば、インストール不要で即座に試用できます。

4. SDK(開発者向け)

Python ライブラリとしてエージェントをプログラムに組み込めます。ローカルの 1 エージェントから、クラウド上の数千エージェントまでスケール可能です。

Claude Code との比較

OpenHands CLI は「オープンソース版 Claude Code」として位置づけられています。

比較項目OpenHands CLIClaude Code
ライセンスMIT(完全オープンソース)プロプライエタリ
料金無料(LLM の API 費用は別途)Claude サブスクリプション必要
対応モデルClaude, GPT, Gemini, Qwen3 など自由に選択Claude のみ
ローカル LLMOllama 等で完全ローカル実行可能不可(クラウド API 必須)
SWE-bench Verified77.6%トップクラス
インストールpip install openhands-ainpm install -g @anthropic-ai/claude-code

OpenHands の強み: モデルに縛られない自由度と、完全ローカル実行によるプライバシー保護。

Claude Code の強み: Anthropic の最新モデルとの深い統合による安定した品質。

Ollama + Qwen3 でローカル実行する

OpenHands を完全ローカルで動かすには、Ollama と組み合わせます。

前提条件

  • Ollama がインストール済みであること
  • VRAM 16 GB 以上の GPU(推奨)

ステップ 1:Ollama の設定

OpenHands は大きなコンテキストサイズを必要とします。デフォルトの 4096 では不足するため、最低 22,000 に設定してください。

1
2
# コンテキスト長を拡張して Ollama を起動
OLLAMA_CONTEXT_LENGTH=32768 ollama serve

ステップ 2:推奨モデルのダウンロード

公式ドキュメントでは、コーディングタスクに最適化された Qwen3-Coder が推奨されています。

1
ollama pull qwen3-coder:30b

VRAM が不足する場合は、より小さいモデルも使えます。

1
2
3
4
5
# 16GB VRAM 向け
ollama pull qwen3:14b

# 12GB VRAM 向け
ollama pull qwen3:8b

ステップ 3:OpenHands の設定

OpenHands の設定画面(GUI の場合)または環境変数(CLI の場合)で以下を指定します。

設定項目
カスタムモデルopenai/qwen3-coder:30b
Base URLhttp://localhost:11434/v1
API キーdummy(ローカルなので任意の値)

完全ローカル構成の全体像

あなた
  ↓  「FizzBuzz を Python で書いて」
OpenHands(エージェント)
  ↓  LLM にコード生成を依頼
Ollama(ランタイム) ← http://localhost:11434
  ↓  モデルを読み込んで推論
Qwen3-Coder 30B(LLM)
  ↓  コードを生成
OpenHands がファイルに書き込み、テストを実行

すべてが自分の PC 内で完結し、データは一切外部に送信されません。

ローカル実行の現実的な注意点

完全ローカル実行には、いくつかの現実的な制約があります。

パフォーマンス

ローカル LLM での実行は、クラウド API と比べて応答速度が大幅に遅くなります。虎の穴ラボの実践レポートでは、MacBook Pro 上で簡単な Python コード生成に 20〜30 分かかったと報告されています。

推奨構成

構成速度品質コスト
OpenHands + Claude API速い最高API 従量課金
OpenHands + Ollama + Qwen3-Coder 30B遅い良好無料(電気代のみ)
OpenHands + Ollama + Qwen3 8B遅いそこそこ無料(電気代のみ)

現実的なおすすめ: まずは Claude API や OpenRouter 経由で OpenHands の使い勝手を体験し、プライバシーが必要な場面でローカル LLM に切り替えるのが効率的です。

成功のコツ

  • コンテキスト長は必ず拡張する: OLLAMA_CONTEXT_LENGTH=32768 を忘れずに設定
  • 量子化レベルを上げる: VRAM に余裕があれば Q5 以上の量子化を使用(Q4 より品質が安定)
  • タスクを小さく分割する: 「アプリ全体を作って」ではなく「この関数のテストを書いて」のように具体的に指示

OpenHands LM:専用モデル

OpenHands チームは、ソフトウェアエンジニアリングタスクに特化した独自モデル OpenHands LM も開発しています。

  • サイズ: 32B パラメータ
  • SWE-bench Verified: 37.2% の解決率
  • 必要 GPU: NVIDIA RTX 3090(24GB VRAM)1 枚で動作
  • 入手方法: Hugging Face および Ollama で公開
1
2
# OpenHands LM を Ollama でダウンロード
ollama pull omercelik/openhands-lm

汎用モデル(Qwen3 等)よりもコーディングタスクに特化しているため、ローカル環境で OpenHands を使う場合の選択肢のひとつです。

まとめ

  • OpenHands は無料のオープンソース AI コーディングエージェント: Claude Code と同等の機能を MIT ライセンスで提供
  • モデル非依存: Claude, GPT, Qwen3 など好きな LLM を選択でき、ベンダーロックインがない
  • 4 つの使い方: CLI、ローカル GUI、Cloud、SDK と用途に応じて選べる
  • CLI なら pip 一発: pip install openhands-ai で Docker 不要、すぐに使い始められる
  • 完全ローカル実行が可能: Ollama + Qwen3 と組み合わせれば、データを一切外部に送信しない環境を構築できる
  • ローカル実行は速度に注意: クラウド API のほうが圧倒的に速いため、まずは API で体験してからローカルに移行するのが現実的
  • SWE-bench 77.6%: 世界トップクラスのベンチマークスコアで、実用的なコーディング能力を証明

参考