Goose 完全ガイド — Block が作った無料オープンソース AI エージェントの全貌
Block(旧 Square)が開発するオープンソース AI エージェント Goose は、GitHub で 32,400 スターを獲得し、Linux Foundation の Agentic AI Foundation(AAIF)の創設プロジェクトに選ばれた、エージェント AI 時代の基盤ソフトウェアです。
Claude Code costs up to $200 a month. Goose does the same thing for free.
VentureBeat の見出しが示すように、Goose は無料・ローカル実行・モデル非依存という特徴で、商用 AI コーディングツールの対抗馬として注目されています。Block 内部では従業員 12,000 人の 60% が毎週 Goose を使用し、開発時間 50〜75% 削減を報告しています。
Goose とは何か
Goose は「ローカルで動く、拡張可能な、オープンソースの AI エージェント」です。単なるコード補完ではなく、プロジェクトの構築・コード実行・デバッグ・ワークフローの統合を自律的に行います。
基本情報
| 項目 | 内容 |
|---|---|
| 開発元 | Block, Inc.(旧 Square / Jack Dorsey 創業) |
| 公開日 | 2025年1月28日 |
| ライセンス | Apache 2.0 |
| 言語構成 | Rust 57.4%、TypeScript 34.9% |
| GitHub Stars | 32,400+ |
| コントリビューター | 409 人 |
| リリース | 121 回以上(最新 v1.27.0) |
| インターフェース | CLI + デスクトップアプリ |
| 対応 OS | macOS / Linux / Windows |
| 費用 | 無料(LLM API 費用は別途) |
なぜ Block が作ったのか
Goose は Block のエンジニアがソフトウェア開発を効率化するために内部ツールとして開発したことに端を発します。Jack Dorsey はオープンソースの推進者として知られ、Goose は Block の新設オープンソースオフィスから公開された最初のプロジェクトです。
開発の目標は「コードを速く書く」ことではなく、モデルが安定的かつ制御可能にアクション(テスト実行、コード修正、UI 操作、内部システム呼び出し)を行えるようにすることです。
アーキテクチャ
Goose のアーキテクチャは3つのコンポーネントで構成されています。
┌─────────────────────────────────────────────────────┐
│ インターフェース(CLI / デスクトップアプリ) │
│ ユーザーの入出力を管理 │
└──────────────────┬──────────────────────────────────┘
│
┌──────────────────▼──────────────────────────────────┐
│ エージェント(中核ロジック) │
│ 対話ループの監督、ツール呼び出しの実行 │
│ ┌────────────────────────────────────┐ │
│ │ LLM プロバイダー │ │
│ │ (Anthropic / OpenAI / Ollama 等) │ │
│ └────────────────────────────────────┘ │
└──────────────────┬──────────────────────────────────┘
│ MCP (Model Context Protocol)
┌──────────────────▼──────────────────────────────────┐
│ エクステンション群 │
│ ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐ │
│ │GitHub│ │Shell │ │Google│ │Slack │ │ ... │ │
│ │ │ │ │ │Drive │ │ │ │3000+│ │
│ └──────┘ └──────┘ └──────┘ └──────┘ └──────┘ │
└─────────────────────────────────────────────────────┘
エージェントループ
Goose のエージェントループは6段階で循環します。
- ユーザーのリクエストを受け取る
- 利用可能なツール一覧と共に LLM プロバイダーへ送信
- LLM がツール呼び出しを JSON 形式で返す
- Goose がツールを実行し、結果を LLM に返却
- 不要・古い情報を削除し、LLM が重要な情報に集中できるようにする
- 最終応答をユーザーに提示
重要なのは、LLM 自体はツールを実行しない点です。LLM はツール呼び出しリクエストを生成するだけで、実際の実行は Goose が担当します。エラーが発生しても処理は中断せず、エラー情報として LLM に返却され、リカバリーを試みます。
モデル非依存: 任意の LLM を接続
Goose の最大の特徴は、特定の LLM に依存しないことです。
対応プロバイダー
| プロバイダー | 接続方法 | 備考 |
|---|---|---|
| Anthropic | API キー | Claude Sonnet / Opus |
| OpenAI | API キー | GPT-4o / o1 等 |
| API キー | Gemini 3 Pro / Flash | |
| GitHub Copilot | 既存サブスクリプション | Copilot 契約があればそのまま使える |
| Ollama | ローカル接続 | 完全ローカル・無料 |
| その他 | OpenAI 互換 API | vLLM, SGLang, LM Studio 等 |
Ollama でローカル実行
Ollama を使えば、クラウドに一切データを送らずに Goose を動かせます。
| |
ローカル実行時の推奨モデル:
| モデル | 必要メモリ | 用途 |
|---|---|---|
| qwen2.5-coder:14b | 約 16GB RAM | コーディング特化 |
| qwen3:32b | 約 24GB RAM | 汎用・高精度 |
| qwen2.5-coder:7b | 約 8GB RAM | 軽量・高速 |
注意点として、Ollama のデフォルトコンテキスト窓は 2K トークンと非常に小さく、超過分は黙って破棄されます。Goose はこの問題に対処し、リクエストごとにコンテキスト窓を自動調整します。
マルチモデル構成
Goose はタスクの複雑さに応じて異なるモデルを使い分けることができます。
簡単なタスク → 軽量モデル(Qwen 7B / Flash)→ 高速・低コスト
複雑なタスク → 高性能モデル(Claude Opus / GPT-4o)→ 高精度
Recipes 機能では、レシピごとにプロバイダーとモデルを指定できるため、ワークフローに応じた最適化が可能です。
MCP エクステンション: 3,000+ ツールとの統合
Goose の拡張性の核心は MCP(Model Context Protocol) です。MCP は Anthropic が開発し、Linux Foundation に寄贈されたオープン標準で、AI エージェントとデータソース・ツールの間の相互運用性を実現します。
エクステンションの仕組み
エクステンションは MCP サーバーとして実装され、ツールを通じて機能を公開します。
Goose ←(MCP)→ GitHub エクステンション
├── create_issue(Issue 作成)
├── create_pull_request(PR 作成)
├── search_code(コード検索)
└── list_commits(コミット一覧)
主要なエクステンションカテゴリ
| カテゴリ | 例 |
|---|---|
| 開発ツール | GitHub, Docker, Kubernetes, VS Code |
| 生産性 | Google Drive, Asana, Slack, Notion |
| データ | PostgreSQL, MongoDB, Elasticsearch |
| 知識管理 | Obsidian MCP, Knowledge Graph Memory |
| セキュリティ | Snyk, Trivy |
| ファイルシステム | FileSystem MCP サーバー |
エクステンションの追加方法
| |
Knowledge Graph Memory
セッション間の記憶を永続化する特に重要なエクステンションです。
| |
単純なキーバリューの記憶ではなく、グラフベースの関係マッピングで概念間のつながりを保持します。たとえばセキュリティレビューで学習した脆弱性パターン(SQL インジェクション、XSS、認証の弱点)とその関係性を記憶し、次回のレビューに活かせます。
Recipes: ワークフローの自動化と共有
Recipes は Goose の独自機能で、Claude Code の Skills に相当します。ただし、Skills が「エージェントの振る舞いを変える」のに対し、Recipes は「エージェントが何をするかを定義する」点が異なります。
Recipe の構成要素
| 要素 | 役割 |
|---|---|
| instructions | システムプロンプト(エージェントの役割定義) |
| prompt | 初期プロンプト(最初の指示) |
| extensions | 使用する MCP サーバーの一覧 |
| parameters | {{variable}} で渡す変数 |
| sub-recipes | サブレシピ(並列実行可能) |
具体例: 404 ポートフォリオレシピ
| |
サブレシピによる並列実行
Goose の強力な機能の一つがサブエージェントの並列実行です。
メインレシピ: 動画処理
├── サブレシピ1: 動画圧縮 ─┐
├── サブレシピ2: サムネイル生成 ├── 並列実行
├── サブレシピ3: 音声抽出 ─┘
└── サブレシピ4: 文字起こし ─── 音声抽出完了後に実行
各サブエージェントは独立したセッションで動作し、一つが失敗しても他に影響しません。メインレシピが全体の調整を行い、結果を統合します。
Recipe と Skills の違い
| 観点 | Goose Recipes | Claude Code Skills |
|---|---|---|
| 定義 | YAML ファイル | Markdown ファイル |
| バージョン管理 | Git で差分・ロールバック可能 | 同左 |
| 拡張機能の指定 | レシピごとに MCP サーバーを固定 | Skills 内でツール指定は不可 |
| モデル指定 | レシピごとにプロバイダー・モデルを指定可能 | 不可(セッション全体で固定) |
| 並列実行 | サブレシピで並列サブエージェント | チーム機能で可能(別機能) |
| パラメータ | {{variable}} で変数渡し | スラッシュコマンド引数 |
| 共有 | Recipe Generator + マーケットプレイス | .claude/skills/ をリポジトリで共有 |
Block 内部での実績
Goose は「理論上のツール」ではなく、12,000 人規模の企業で実戦検証されています。
| 指標 | 数値 |
|---|---|
| 週間アクティブ率 | 従業員の 60% |
| 開発時間削減 | 50〜75% |
| 週間節約時間 | エンジニアあたり 8〜10 時間 |
| コード出荷量 | 一人あたり 40% 増(6ヶ月前比) |
活用事例は多岐にわたります。
| 用途 | 内容 |
|---|---|
| コードマイグレーション | Ember → React、Ruby → Kotlin |
| ステータスレポート | Linear, GitHub, Notion から週次更新を自動生成 |
| 内部ダッシュボード | チームメイトがダッシュボードを構築 |
| サポートチケット | トリアージの自動化 |
| チェンジログ | リリースノートの自動生成 |
2026年3月、Block は従業員の 40%(約 4,000 人)をレイオフしました。Jack Dorsey は「AI ツール、特に Goose のおかげで 6,000 人のチームが 10,000 人のチームと同等の生産性を達成できる閾値を超えた」と述べています。この判断は「intelligence density(知能密度)」という概念に基づいており、AI エージェントの企業内展開がもたらすインパクトの大きさを示す事例となっています。
Goose vs Claude Code
両者は「AI コーディングエージェント」というカテゴリでは同じですが、設計思想が根本的に異なります。
設計思想の違い
Claude Code:
Anthropic のモデル(Opus / Sonnet)に最適化
→ クラウド実行 → 高い推論品質 → 月額 $20〜$200
Goose:
任意の LLM に接続可能
→ ローカル実行可能 → モデル非依存 → 無料(LLM API 費用は別)
機能比較
| 機能 | Goose | Claude Code |
|---|---|---|
| 費用 | 無料 | 月額 $20〜$200 |
| LLM 選択 | 任意(25+ プロバイダー) | Claude のみ |
| ローカル実行 | Ollama 対応 | クラウドのみ |
| ファイル編集 | MCP + シェル | ネイティブ |
| ワークフロー | Recipes(YAML) | Skills(Markdown) |
| 並列実行 | サブレシピ | チーム機能 |
| 拡張 | MCP(3,000+ サーバー) | MCP + ネイティブツール |
| セッション間記憶 | Knowledge Graph MCP | memory.md / MEMORY.md |
| デスクトップアプリ | あり | VS Code 拡張 |
| 推論品質 | LLM 依存 | Claude Opus(業界最高水準) |
使い分けの指針
| シナリオ | 推奨 |
|---|---|
| プライバシー重視・ローカル実行 | Goose + Ollama |
| 高精度な推論が必要 | Claude Code |
| 構造化されたワークフロー自動化 | Goose Recipes |
| 探索的なデバッグ | Claude Code |
| マルチモデル運用 | Goose |
| 最小構成で始めたい | Claude Code |
| チーム全体での標準化 | Goose(無料・オープンソース) |
Agentic AI Foundation(AAIF)
2025年12月、Linux Foundation は Agentic AI Foundation(AAIF) の設立を発表しました。創設プロジェクトとして以下の3つが寄贈されています。
| プロジェクト | 提供元 | 役割 |
|---|---|---|
| MCP | Anthropic | エージェントとツール間の通信標準 |
| Goose | Block | エージェント実行フレームワーク |
| AGENTS.md | OpenAI | エージェント間の行動規約 |
Platinum メンバーには AWS、Anthropic、Block、Bloomberg、Cloudflare、Google、Microsoft、OpenAI が名を連ねています。
Goose は AAIF において「MCP のリファレンス実装」という位置づけであり、MCP エコシステムの中心的なクライアントです。MCP の月間 SDK ダウンロードは 9,700 万回を超え、10,000 以上のアクティブサーバーが存在します。
セットアップ手順
macOS / Linux
| |
初期設定
| |
ローカル実行(Ollama)
| |
Goose vs OpenHands: もう一つのオープンソース AI エージェントとの比較
Goose と同じく注目を集めるオープンソース AI エージェントに OpenHands(旧 OpenDevin)があります。GitHub 68,600 スター、ICLR 2025 採択の学術論文を持つプラットフォームです。両者は設計思想が根本的に異なります。
基本プロファイル
| 項目 | Goose | OpenHands |
|---|---|---|
| 開発元 | Block, Inc.(旧 Square) | All-Hands-AI(学術発・スタートアップ) |
| 公開日 | 2025年1月 | 2024年7月(旧 OpenDevin) |
| GitHub Stars | 32,400+ | 68,600+ |
| ライセンス | Apache 2.0 | MIT(Enterprise は別ライセンス) |
| 言語構成 | Rust 57% + TypeScript 35% | Python 76% + TypeScript 22% |
| 学術論文 | なし | ICLR 2025 採択 |
| 資金調達 | Block 社内プロジェクト | Series A $18.8M |
設計思想の違い
Goose:
「ローカルファースト・モデル非依存のエージェントフレームワーク」
→ ユーザーの PC で直接動く → 任意の LLM を接続 → MCP で拡張
OpenHands:
「クラウドネイティブ・サンドボックス隔離のソフトウェア開発プラットフォーム」
→ Docker コンテナで隔離実行 → Web UI + CLI + SDK → エンタープライズ対応
Goose はターミナルで直接動く「個人の万能エージェント」、OpenHands は Docker サンドボックスで安全に動く「チーム開発プラットフォーム」という位置づけです。
利用形態と料金
| 形態 | Goose | OpenHands |
|---|---|---|
| CLI | あり | あり |
| デスクトップアプリ | あり | なし |
| Web UI | なし | あり(React SPA) |
| クラウド SaaS | なし | あり(app.all-hands.dev) |
| セルフホスト Enterprise | なし | あり(Kubernetes + Helm) |
| 料金 | 完全無料 | 無料〜$500/月〜カスタム |
アーキテクチャ比較
| 観点 | Goose | OpenHands |
|---|---|---|
| 実行環境 | ユーザーの PC 上で直接実行 | Docker サンドボックス内で隔離実行 |
| エージェントループ | ツール一覧 → LLM → JSON 呼び出し → 実行 | イベントストリーム(Agent → Action → Environment → Observation) |
| 拡張方式 | MCP エクステンション(3,000+) | MCP + マイクロエージェント + ビルトインツール |
| セキュリティ | ユーザー権限で実行 | Docker 隔離 + RBAC + SAML/SSO |
| 並列実行 | サブレシピ | 数千の並列エージェント実行(Cloud) |
| 状態管理 | セッション + Knowledge Graph MCP | イベントソース + 決定論的リプレイ |
OpenHands のイベントストリームアーキテクチャは、全てのアクションと結果をイベントログに記録します。これにより決定論的リプレイ(同じイベント列を再生すれば同じ状態を再現)が可能で、デバッグや監査に有利です。
機能比較
| 機能 | Goose | OpenHands |
|---|---|---|
| コード編集 | シェル + MCP | サンドボックス内で直接 |
| ターミナル実行 | ネイティブ | サンドボックス内 Bash |
| Web ブラウジング | MCP 経由 | ビルトイン |
| Jupyter Notebook | なし | あり |
| ファイルマネージャ | MCP 経由 | Web UI に統合 |
| ワークフロー自動化 | Recipes(YAML) | マイクロエージェント |
| Git 統合 | MCP 経由 | GitHub/GitLab ネイティブ統合 |
| CI/CD 統合 | なし | あり |
| チケットシステム連携 | なし | Slack, Jira 等と統合 |
| マルチモデル | レシピごとに指定可能 | エージェントごとに設定可能 |
| ローカル LLM | Ollama ネイティブ対応 | Ollama 対応(Docker 内から接続) |
性能・ベンチマーク
| 指標 | Goose | OpenHands |
|---|---|---|
| SWE-Bench Verified | 公式スコアなし(LLM 依存) | OpenHands LM (32B): 37.2% |
| チューニング済みモデル | なし | OpenHands LM(Qwen Coder 2.5 を RL 学習でチューニング) |
| エンタープライズ実績 | Block 内部 12,000 人 | Series A $18.8M・複数企業 |
Goose は特定のモデルに最適化せず、接続した LLM の性能がそのまま反映されます。Claude Opus を接続すれば高スコアが出ますが、ローカル LLM では OpenHands LM のようなタスク特化チューニングがない分、同じモデルサイズでは不利になる可能性があります。
OpenHands LM の正体: Qwen ベースのチューニングモデル
OpenHands LM は独自開発のモデルではなく、Qwen Coder 2.5 Instruct 32B をベースに SWE-Gym フレームワークで強化学習(RL)したチューニングモデルです。
| 項目 | 内容 |
|---|---|
| ベースモデル | Qwen Coder 2.5 Instruct 32B |
| チューニング手法 | SWE-Gym フレームワーク(オンライン RL) |
| ライセンス | MIT |
| パラメータ数 | 32B |
| コンテキスト窓 | 128K トークン |
| SWE-Bench スコア | 37.2%(671B の DeepSeek V3 の 38.8% に匹敵) |
| 必要ハードウェア | RTX 3090 1枚で動作可能 |
つまり OpenHands LM を使うことは、Qwen モデルを使うことに他なりません。OpenHands は Qwen エコシステムと深く結びついており、以下の 3 つの方法で Qwen を活用できます。
1. OpenHands LM(Qwen + RL チューニング済み)
SWE-Bench に特化したチューニングが施されており、ソフトウェア開発タスクでは素の Qwen より高い性能を発揮します。
| |
2. Qwen を直接使用
OpenHands は公式に Qwen3-Coder をローカルモデルとして推奨しています。
| |
3. Qwen の蒸留モデルを使用
メモリが限られる環境では、軽量な蒸留モデルも使えます。
| |
| モデル | パラメータ | 必要メモリ | 用途 |
|---|---|---|---|
| OpenHands LM | 32B | ~24GB | SWE タスク最適化 |
| qwen3-coder:30b-a3b | 30B(MoE, 活性 3B) | ~8GB | 高効率・公式推奨 |
| qwen2.5-coder:14b | 14B | ~16GB | バランス型 |
| qwen2.5-coder:7b | 7B | ~8GB | 軽量・高速 |
ローカル LLM 利用時の体験
| 観点 | Goose | OpenHands |
|---|---|---|
| セットアップ | goose configure → Ollama 選択 | Docker 起動 → 環境変数設定 |
| Docker 依存 | 不要 | 必須 |
| コンテキスト窓 | 自動調整 | 最低 22,000 トークン必要 |
| チューニング済みモデル | なし | OpenHands LM 32B(Qwen Coder 2.5 ベース) |
| メモリ消費 | LLM + Goose のみ | LLM + Docker + サンドボックス |
用途別の推奨
| ユースケース | 推奨 | 理由 |
|---|---|---|
| 個人開発者のローカルツール | Goose | Docker 不要、軽量、デスクトップアプリ |
| チーム開発・PR レビュー | OpenHands | GitHub/GitLab 統合、Web UI、RBAC |
| 知識管理(Obsidian 等) | Goose | MCP でシームレスに Vault 操作 |
| 大規模コードベースのバグ修正 | OpenHands | SWE-Bench 実績、サンドボックス安全性 |
| DevOps・スクリプト自動化 | Goose | ターミナルネイティブ、Recipes |
| エンタープライズ導入 | OpenHands | SAML/SSO、VPC デプロイ、監査 |
| ワークフローの共有・標準化 | Goose | Recipes YAML で Git 管理・共有 |
| 研究・実験 | OpenHands | SDK、イベントソース、学術論文 |
| 完全オフライン | Goose | Ollama 直接接続、Docker 不要 |
両者は競合というより補完関係です。個人のローカル作業やワークフロー自動化は Goose、チーム開発やエンタープライズ環境での安全なエージェント実行は OpenHands、という使い分けが自然です。
まとめ
- Goose は Block が開発する無料・オープンソースの AI エージェントで、GitHub 32,400 スター、Apache 2.0 ライセンス、Rust + TypeScript で構築されている
- モデル非依存が最大の特徴 — Anthropic / OpenAI / Google / Ollama など 25 以上のプロバイダーに対応し、Ollama でローカル実行すれば完全無料・完全ローカル
- MCP エクステンションで 3,000 以上のツール(GitHub, Docker, Slack, Obsidian 等)と統合でき、エクステンションの追加は
goose configureで数ステップ - Recipes はワークフローを YAML で定義・バージョン管理・共有する仕組みで、サブレシピによる並列実行やモデル指定が可能。Claude Code の Skills に相当するが、より構造化されている
- Block 内部で実証済み — 12,000 人の 60% が毎週使用、開発時間 50〜75% 削減、コード出荷量 40% 増を報告。この成果がレイオフの根拠にもなった
- AAIF の創設プロジェクト — Anthropic の MCP、OpenAI の AGENTS.md と並び、Linux Foundation のエージェント AI 標準化の中核に位置づけられている
- Claude Code との使い分け — 推論品質が必要なら Claude Code、プライバシー・コスト・モデル自由度を重視するなら Goose。両者は競合ではなく、Goose から Claude API を呼ぶ構成も可能
- OpenHands との使い分け — Goose は「個人のローカル万能エージェント」、OpenHands は「チーム開発のサンドボックスプラットフォーム」。OpenHands LM は Qwen Coder 2.5 ベースの RL チューニングモデル(SWE-Bench 37.2%)で、Qwen を直接使うことも公式推奨されている。Docker 隔離・Web UI・エンタープライズ機能を持ち、大規模開発に強い
参考
- Goose — GitHub
- Goose 公式ドキュメント
- Goose アーキテクチャ
- Block Open Source Introduces “codename goose”
- Block launches open-source AI agent Goose — Fortune
- Jack Dorsey is back with Goose — VentureBeat
- Goose vs Claude Code — techbuddies.io
- What Makes Goose Different — Nick Taylor
- A Recipe for Success — Goose Blog
- Knowledge Graph Memory 拡張
- Goose Ollama 連携 — Ollama Docs
- Linux Foundation AAIF 発表
- Block’s Goose Transformation — Sequoia Capital Podcast
- How Block’s custom AI agent supercharges every team — Lenny’s Newsletter
- OpenHands — GitHub
- OpenHands 公式サイト
- OpenHands Software Agent SDK — arXiv
- OpenHands Tool System & MCP — Docs
- OpenHands LM — Ollama
- OpenHands Raises $18.8M Series A — BusinessWire