Goose 完全ガイド — Block が作った無料オープンソース AI エージェントの全貌

Block(旧 Square)が開発するオープンソース AI エージェント Goose は、GitHub で 32,400 スターを獲得し、Linux Foundation の Agentic AI Foundation(AAIF)の創設プロジェクトに選ばれた、エージェント AI 時代の基盤ソフトウェアです。

Claude Code costs up to $200 a month. Goose does the same thing for free.

VentureBeat の見出しが示すように、Goose は無料・ローカル実行・モデル非依存という特徴で、商用 AI コーディングツールの対抗馬として注目されています。Block 内部では従業員 12,000 人の 60% が毎週 Goose を使用し、開発時間 50〜75% 削減を報告しています。

Goose とは何か

Goose は「ローカルで動く、拡張可能な、オープンソースの AI エージェント」です。単なるコード補完ではなく、プロジェクトの構築・コード実行・デバッグ・ワークフローの統合を自律的に行います。

基本情報

項目内容
開発元Block, Inc.(旧 Square / Jack Dorsey 創業)
公開日2025年1月28日
ライセンスApache 2.0
言語構成Rust 57.4%、TypeScript 34.9%
GitHub Stars32,400+
コントリビューター409 人
リリース121 回以上(最新 v1.27.0)
インターフェースCLI + デスクトップアプリ
対応 OSmacOS / Linux / Windows
費用無料(LLM API 費用は別途)

なぜ Block が作ったのか

Goose は Block のエンジニアがソフトウェア開発を効率化するために内部ツールとして開発したことに端を発します。Jack Dorsey はオープンソースの推進者として知られ、Goose は Block の新設オープンソースオフィスから公開された最初のプロジェクトです。

開発の目標は「コードを速く書く」ことではなく、モデルが安定的かつ制御可能にアクション(テスト実行、コード修正、UI 操作、内部システム呼び出し)を行えるようにすることです。

アーキテクチャ

Goose のアーキテクチャは3つのコンポーネントで構成されています。

┌─────────────────────────────────────────────────────┐
│  インターフェース(CLI / デスクトップアプリ)           │
│    ユーザーの入出力を管理                              │
└──────────────────┬──────────────────────────────────┘
                   │
┌──────────────────▼──────────────────────────────────┐
│  エージェント(中核ロジック)                          │
│    対話ループの監督、ツール呼び出しの実行              │
│    ┌────────────────────────────────────┐           │
│    │  LLM プロバイダー                   │           │
│    │  (Anthropic / OpenAI / Ollama 等)  │           │
│    └────────────────────────────────────┘           │
└──────────────────┬──────────────────────────────────┘
                   │ MCP (Model Context Protocol)
┌──────────────────▼──────────────────────────────────┐
│  エクステンション群                                   │
│  ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐     │
│  │GitHub│ │Shell │ │Google│ │Slack │ │ ... │     │
│  │      │ │      │ │Drive │ │      │ │3000+│     │
│  └──────┘ └──────┘ └──────┘ └──────┘ └──────┘     │
└─────────────────────────────────────────────────────┘

エージェントループ

Goose のエージェントループは6段階で循環します。

  1. ユーザーのリクエストを受け取る
  2. 利用可能なツール一覧と共に LLM プロバイダーへ送信
  3. LLM がツール呼び出しを JSON 形式で返す
  4. Goose がツールを実行し、結果を LLM に返却
  5. 不要・古い情報を削除し、LLM が重要な情報に集中できるようにする
  6. 最終応答をユーザーに提示

重要なのは、LLM 自体はツールを実行しない点です。LLM はツール呼び出しリクエストを生成するだけで、実際の実行は Goose が担当します。エラーが発生しても処理は中断せず、エラー情報として LLM に返却され、リカバリーを試みます。

モデル非依存: 任意の LLM を接続

Goose の最大の特徴は、特定の LLM に依存しないことです。

対応プロバイダー

プロバイダー接続方法備考
AnthropicAPI キーClaude Sonnet / Opus
OpenAIAPI キーGPT-4o / o1 等
GoogleAPI キーGemini 3 Pro / Flash
GitHub Copilot既存サブスクリプションCopilot 契約があればそのまま使える
Ollamaローカル接続完全ローカル・無料
その他OpenAI 互換 APIvLLM, SGLang, LM Studio 等

Ollama でローカル実行

Ollama を使えば、クラウドに一切データを送らずに Goose を動かせます。

1
2
3
4
5
6
7
8
# Ollama でモデルを取得
ollama pull qwen3:32b

# Goose のプロバイダーを設定
goose configure
# → Provider: Ollama
# → Host: http://localhost:11434
# → Model: qwen3:32b

ローカル実行時の推奨モデル:

モデル必要メモリ用途
qwen2.5-coder:14b約 16GB RAMコーディング特化
qwen3:32b約 24GB RAM汎用・高精度
qwen2.5-coder:7b約 8GB RAM軽量・高速

注意点として、Ollama のデフォルトコンテキスト窓は 2K トークンと非常に小さく、超過分は黙って破棄されます。Goose はこの問題に対処し、リクエストごとにコンテキスト窓を自動調整します。

マルチモデル構成

Goose はタスクの複雑さに応じて異なるモデルを使い分けることができます。

簡単なタスク → 軽量モデル(Qwen 7B / Flash)→ 高速・低コスト
複雑なタスク → 高性能モデル(Claude Opus / GPT-4o)→ 高精度

Recipes 機能では、レシピごとにプロバイダーとモデルを指定できるため、ワークフローに応じた最適化が可能です。

MCP エクステンション: 3,000+ ツールとの統合

Goose の拡張性の核心は MCP(Model Context Protocol) です。MCP は Anthropic が開発し、Linux Foundation に寄贈されたオープン標準で、AI エージェントとデータソース・ツールの間の相互運用性を実現します。

エクステンションの仕組み

エクステンションは MCP サーバーとして実装され、ツールを通じて機能を公開します。

Goose ←(MCP)→ GitHub エクステンション
                 ├── create_issue(Issue 作成)
                 ├── create_pull_request(PR 作成)
                 ├── search_code(コード検索)
                 └── list_commits(コミット一覧)

主要なエクステンションカテゴリ

カテゴリ
開発ツールGitHub, Docker, Kubernetes, VS Code
生産性Google Drive, Asana, Slack, Notion
データPostgreSQL, MongoDB, Elasticsearch
知識管理Obsidian MCP, Knowledge Graph Memory
セキュリティSnyk, Trivy
ファイルシステムFileSystem MCP サーバー

エクステンションの追加方法

1
2
3
4
5
6
# CLI で追加
goose configure
# → "Add Extension" を選択
# → MCP サーバーの詳細を入力

# デスクトップアプリでは Extensions Manager から GUI で追加

Knowledge Graph Memory

セッション間の記憶を永続化する特に重要なエクステンションです。

1
2
# インストール
npx -y @modelcontextprotocol/server-memory

単純なキーバリューの記憶ではなく、グラフベースの関係マッピングで概念間のつながりを保持します。たとえばセキュリティレビューで学習した脆弱性パターン(SQL インジェクション、XSS、認証の弱点)とその関係性を記憶し、次回のレビューに活かせます。

Recipes: ワークフローの自動化と共有

Recipes は Goose の独自機能で、Claude Code の Skills に相当します。ただし、Skills が「エージェントの振る舞いを変える」のに対し、Recipes は「エージェントが何をするかを定義する」点が異なります。

Recipe の構成要素

要素役割
instructionsシステムプロンプト(エージェントの役割定義)
prompt初期プロンプト(最初の指示)
extensions使用する MCP サーバーの一覧
parameters{{variable}} で渡す変数
sub-recipesサブレシピ(並列実行可能)

具体例: 404 ポートフォリオレシピ

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
version: 1.0.0
title: 404Portfolio
description: カスタマイズ可能な404エラーページ生成
extensions:
  - builtin::developer
  - builtin::computercontroller
activities:
  - GitHub連携でプロフィール取得
  - Dev.to / Bluesky のコンテンツ収集
  - ストーリー仕立ての404ページ生成

サブレシピによる並列実行

Goose の強力な機能の一つがサブエージェントの並列実行です。

メインレシピ: 動画処理
├── サブレシピ1: 動画圧縮      ─┐
├── サブレシピ2: サムネイル生成  ├── 並列実行
├── サブレシピ3: 音声抽出      ─┘
└── サブレシピ4: 文字起こし    ─── 音声抽出完了後に実行

各サブエージェントは独立したセッションで動作し、一つが失敗しても他に影響しません。メインレシピが全体の調整を行い、結果を統合します。

Recipe と Skills の違い

観点Goose RecipesClaude Code Skills
定義YAML ファイルMarkdown ファイル
バージョン管理Git で差分・ロールバック可能同左
拡張機能の指定レシピごとに MCP サーバーを固定Skills 内でツール指定は不可
モデル指定レシピごとにプロバイダー・モデルを指定可能不可(セッション全体で固定)
並列実行サブレシピで並列サブエージェントチーム機能で可能(別機能)
パラメータ{{variable}} で変数渡しスラッシュコマンド引数
共有Recipe Generator + マーケットプレイス.claude/skills/ をリポジトリで共有

Block 内部での実績

Goose は「理論上のツール」ではなく、12,000 人規模の企業で実戦検証されています。

指標数値
週間アクティブ率従業員の 60%
開発時間削減50〜75%
週間節約時間エンジニアあたり 8〜10 時間
コード出荷量一人あたり 40% 増(6ヶ月前比)

活用事例は多岐にわたります。

用途内容
コードマイグレーションEmber → React、Ruby → Kotlin
ステータスレポートLinear, GitHub, Notion から週次更新を自動生成
内部ダッシュボードチームメイトがダッシュボードを構築
サポートチケットトリアージの自動化
チェンジログリリースノートの自動生成

2026年3月、Block は従業員の 40%(約 4,000 人)をレイオフしました。Jack Dorsey は「AI ツール、特に Goose のおかげで 6,000 人のチームが 10,000 人のチームと同等の生産性を達成できる閾値を超えた」と述べています。この判断は「intelligence density(知能密度)」という概念に基づいており、AI エージェントの企業内展開がもたらすインパクトの大きさを示す事例となっています。

Goose vs Claude Code

両者は「AI コーディングエージェント」というカテゴリでは同じですが、設計思想が根本的に異なります。

設計思想の違い

Claude Code:
  Anthropic のモデル(Opus / Sonnet)に最適化
  → クラウド実行 → 高い推論品質 → 月額 $20〜$200

Goose:
  任意の LLM に接続可能
  → ローカル実行可能 → モデル非依存 → 無料(LLM API 費用は別)

機能比較

機能GooseClaude Code
費用無料月額 $20〜$200
LLM 選択任意(25+ プロバイダー)Claude のみ
ローカル実行Ollama 対応クラウドのみ
ファイル編集MCP + シェルネイティブ
ワークフローRecipes(YAML)Skills(Markdown)
並列実行サブレシピチーム機能
拡張MCP(3,000+ サーバー)MCP + ネイティブツール
セッション間記憶Knowledge Graph MCPmemory.md / MEMORY.md
デスクトップアプリありVS Code 拡張
推論品質LLM 依存Claude Opus(業界最高水準)

使い分けの指針

シナリオ推奨
プライバシー重視・ローカル実行Goose + Ollama
高精度な推論が必要Claude Code
構造化されたワークフロー自動化Goose Recipes
探索的なデバッグClaude Code
マルチモデル運用Goose
最小構成で始めたいClaude Code
チーム全体での標準化Goose(無料・オープンソース)

Agentic AI Foundation(AAIF)

2025年12月、Linux Foundation は Agentic AI Foundation(AAIF) の設立を発表しました。創設プロジェクトとして以下の3つが寄贈されています。

プロジェクト提供元役割
MCPAnthropicエージェントとツール間の通信標準
GooseBlockエージェント実行フレームワーク
AGENTS.mdOpenAIエージェント間の行動規約

Platinum メンバーには AWS、Anthropic、Block、Bloomberg、Cloudflare、Google、Microsoft、OpenAI が名を連ねています。

Goose は AAIF において「MCP のリファレンス実装」という位置づけであり、MCP エコシステムの中心的なクライアントです。MCP の月間 SDK ダウンロードは 9,700 万回を超え、10,000 以上のアクティブサーバーが存在します。

セットアップ手順

macOS / Linux

1
2
3
4
5
# Homebrew でインストール
brew install goose

# または curl でインストール
curl -fsSL https://github.com/block/goose/releases/latest/download/download_cli.sh | bash

初期設定

1
2
3
4
5
6
7
8
# プロバイダーを設定
goose configure
# → Provider を選択(Anthropic / OpenAI / Ollama 等)
# → API キーまたはローカルホストを設定
# → モデルを選択

# 起動
goose

ローカル実行(Ollama)

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
# Ollama をインストール
brew install ollama

# モデルを取得
ollama pull qwen3:32b

# Goose を Ollama で設定
goose configure
# → Provider: Ollama
# → Host: http://localhost:11434
# → Model: qwen3:32b

# 起動(完全ローカル・完全無料)
goose

Goose vs OpenHands: もう一つのオープンソース AI エージェントとの比較

Goose と同じく注目を集めるオープンソース AI エージェントに OpenHands(旧 OpenDevin)があります。GitHub 68,600 スター、ICLR 2025 採択の学術論文を持つプラットフォームです。両者は設計思想が根本的に異なります。

基本プロファイル

項目GooseOpenHands
開発元Block, Inc.(旧 Square)All-Hands-AI(学術発・スタートアップ)
公開日2025年1月2024年7月(旧 OpenDevin)
GitHub Stars32,400+68,600+
ライセンスApache 2.0MIT(Enterprise は別ライセンス)
言語構成Rust 57% + TypeScript 35%Python 76% + TypeScript 22%
学術論文なしICLR 2025 採択
資金調達Block 社内プロジェクトSeries A $18.8M

設計思想の違い

Goose:
  「ローカルファースト・モデル非依存のエージェントフレームワーク」
  → ユーザーの PC で直接動く → 任意の LLM を接続 → MCP で拡張

OpenHands:
  「クラウドネイティブ・サンドボックス隔離のソフトウェア開発プラットフォーム」
  → Docker コンテナで隔離実行 → Web UI + CLI + SDK → エンタープライズ対応

Goose はターミナルで直接動く「個人の万能エージェント」、OpenHands は Docker サンドボックスで安全に動く「チーム開発プラットフォーム」という位置づけです。

利用形態と料金

形態GooseOpenHands
CLIありあり
デスクトップアプリありなし
Web UIなしあり(React SPA)
クラウド SaaSなしあり(app.all-hands.dev)
セルフホスト Enterpriseなしあり(Kubernetes + Helm)
料金完全無料無料〜$500/月〜カスタム

アーキテクチャ比較

観点GooseOpenHands
実行環境ユーザーの PC 上で直接実行Docker サンドボックス内で隔離実行
エージェントループツール一覧 → LLM → JSON 呼び出し → 実行イベントストリーム(Agent → Action → Environment → Observation)
拡張方式MCP エクステンション(3,000+)MCP + マイクロエージェント + ビルトインツール
セキュリティユーザー権限で実行Docker 隔離 + RBAC + SAML/SSO
並列実行サブレシピ数千の並列エージェント実行(Cloud)
状態管理セッション + Knowledge Graph MCPイベントソース + 決定論的リプレイ

OpenHands のイベントストリームアーキテクチャは、全てのアクションと結果をイベントログに記録します。これにより決定論的リプレイ(同じイベント列を再生すれば同じ状態を再現)が可能で、デバッグや監査に有利です。

機能比較

機能GooseOpenHands
コード編集シェル + MCPサンドボックス内で直接
ターミナル実行ネイティブサンドボックス内 Bash
Web ブラウジングMCP 経由ビルトイン
Jupyter Notebookなしあり
ファイルマネージャMCP 経由Web UI に統合
ワークフロー自動化Recipes(YAML)マイクロエージェント
Git 統合MCP 経由GitHub/GitLab ネイティブ統合
CI/CD 統合なしあり
チケットシステム連携なしSlack, Jira 等と統合
マルチモデルレシピごとに指定可能エージェントごとに設定可能
ローカル LLMOllama ネイティブ対応Ollama 対応(Docker 内から接続)

性能・ベンチマーク

指標GooseOpenHands
SWE-Bench Verified公式スコアなし(LLM 依存)OpenHands LM (32B): 37.2%
チューニング済みモデルなしOpenHands LM(Qwen Coder 2.5 を RL 学習でチューニング)
エンタープライズ実績Block 内部 12,000 人Series A $18.8M・複数企業

Goose は特定のモデルに最適化せず、接続した LLM の性能がそのまま反映されます。Claude Opus を接続すれば高スコアが出ますが、ローカル LLM では OpenHands LM のようなタスク特化チューニングがない分、同じモデルサイズでは不利になる可能性があります。

OpenHands LM の正体: Qwen ベースのチューニングモデル

OpenHands LM は独自開発のモデルではなく、Qwen Coder 2.5 Instruct 32B をベースに SWE-Gym フレームワークで強化学習(RL)したチューニングモデルです。

項目内容
ベースモデルQwen Coder 2.5 Instruct 32B
チューニング手法SWE-Gym フレームワーク(オンライン RL)
ライセンスMIT
パラメータ数32B
コンテキスト窓128K トークン
SWE-Bench スコア37.2%(671B の DeepSeek V3 の 38.8% に匹敵)
必要ハードウェアRTX 3090 1枚で動作可能

つまり OpenHands LM を使うことは、Qwen モデルを使うことに他なりません。OpenHands は Qwen エコシステムと深く結びついており、以下の 3 つの方法で Qwen を活用できます。

1. OpenHands LM(Qwen + RL チューニング済み)

SWE-Bench に特化したチューニングが施されており、ソフトウェア開発タスクでは素の Qwen より高い性能を発揮します。

1
2
3
4
5
6
# Ollama で OpenHands LM を取得
ollama pull omercelik/openhands-lm:32b

# OpenHands の設定
export LLM_MODEL="ollama/omercelik/openhands-lm:32b"
export LLM_BASE_URL="http://localhost:11434"

2. Qwen を直接使用

OpenHands は公式に Qwen3-Coder をローカルモデルとして推奨しています。

1
2
3
4
5
6
# Qwen3-Coder を取得
ollama pull qwen3-coder:30b-a3b

# OpenHands の設定
export LLM_MODEL="ollama/qwen3-coder:30b-a3b"
export LLM_BASE_URL="http://localhost:11434"

3. Qwen の蒸留モデルを使用

メモリが限られる環境では、軽量な蒸留モデルも使えます。

1
2
3
4
5
6
# 軽量版
ollama pull qwen2.5-coder:14b

# OpenHands の設定
export LLM_MODEL="ollama/qwen2.5-coder:14b"
export LLM_BASE_URL="http://localhost:11434"
モデルパラメータ必要メモリ用途
OpenHands LM32B~24GBSWE タスク最適化
qwen3-coder:30b-a3b30B(MoE, 活性 3B)~8GB高効率・公式推奨
qwen2.5-coder:14b14B~16GBバランス型
qwen2.5-coder:7b7B~8GB軽量・高速

ローカル LLM 利用時の体験

観点GooseOpenHands
セットアップgoose configure → Ollama 選択Docker 起動 → 環境変数設定
Docker 依存不要必須
コンテキスト窓自動調整最低 22,000 トークン必要
チューニング済みモデルなしOpenHands LM 32B(Qwen Coder 2.5 ベース)
メモリ消費LLM + Goose のみLLM + Docker + サンドボックス

用途別の推奨

ユースケース推奨理由
個人開発者のローカルツールGooseDocker 不要、軽量、デスクトップアプリ
チーム開発・PR レビューOpenHandsGitHub/GitLab 統合、Web UI、RBAC
知識管理(Obsidian 等)GooseMCP でシームレスに Vault 操作
大規模コードベースのバグ修正OpenHandsSWE-Bench 実績、サンドボックス安全性
DevOps・スクリプト自動化Gooseターミナルネイティブ、Recipes
エンタープライズ導入OpenHandsSAML/SSO、VPC デプロイ、監査
ワークフローの共有・標準化GooseRecipes YAML で Git 管理・共有
研究・実験OpenHandsSDK、イベントソース、学術論文
完全オフラインGooseOllama 直接接続、Docker 不要

両者は競合というより補完関係です。個人のローカル作業やワークフロー自動化は Goose、チーム開発やエンタープライズ環境での安全なエージェント実行は OpenHands、という使い分けが自然です。

まとめ

  • Goose は Block が開発する無料・オープンソースの AI エージェントで、GitHub 32,400 スター、Apache 2.0 ライセンス、Rust + TypeScript で構築されている
  • モデル非依存が最大の特徴 — Anthropic / OpenAI / Google / Ollama など 25 以上のプロバイダーに対応し、Ollama でローカル実行すれば完全無料・完全ローカル
  • MCP エクステンションで 3,000 以上のツール(GitHub, Docker, Slack, Obsidian 等)と統合でき、エクステンションの追加は goose configure で数ステップ
  • Recipes はワークフローを YAML で定義・バージョン管理・共有する仕組みで、サブレシピによる並列実行やモデル指定が可能。Claude Code の Skills に相当するが、より構造化されている
  • Block 内部で実証済み — 12,000 人の 60% が毎週使用、開発時間 50〜75% 削減、コード出荷量 40% 増を報告。この成果がレイオフの根拠にもなった
  • AAIF の創設プロジェクト — Anthropic の MCP、OpenAI の AGENTS.md と並び、Linux Foundation のエージェント AI 標準化の中核に位置づけられている
  • Claude Code との使い分け — 推論品質が必要なら Claude Code、プライバシー・コスト・モデル自由度を重視するなら Goose。両者は競合ではなく、Goose から Claude API を呼ぶ構成も可能
  • OpenHands との使い分け — Goose は「個人のローカル万能エージェント」、OpenHands は「チーム開発のサンドボックスプラットフォーム」。OpenHands LM は Qwen Coder 2.5 ベースの RL チューニングモデル(SWE-Bench 37.2%)で、Qwen を直接使うことも公式推奨されている。Docker 隔離・Web UI・エンタープライズ機能を持ち、大規模開発に強い

参考