Gemini Agent

概要 Google が Gemini に追加したエージェント機能。単一の質問に答えるチャットではなく、複数ステップにわたる複雑なタスクを自律的に実行できる。Google Workspace(Gmail・Calendar・Drive・Slides)の各サービスを横断して操作が可能。 主な機能 機能 内容 マルチステップ実行 メール確認→カレンダー調整→資料作成を連続処理 スケジュール実行 設定した時間帯に自動でタスクを実行 Google Workspace 統合 Gmail・Drive・Calendar・Slides を統合操作 ユーザーコントロール 実行前の確認、中断、取り消しが可能 利用条件 Google AI Ultra プランのサブスクライバー向けに提供(2026年4月時点)。一般ユーザーへの段階的な展開が予定されている。 OpenClaw との比較 Gemini Agent: クラウド管理、Google Workspace との統合が強み、セットアップ不要 OpenClaw(Claude Code ベース): ローカル実行、コードベースへの直接アクセス、技術者向け 業務効率化や非エンジニアのタスク自動化では Gemini Agent が、ソフトウェア開発自動化では OpenClaw のようなローカルエージェントが適している。 関連ページ AI エージェント — エージェントの基本概念 Claude Managed Agents — Anthropic のマネージドエージェント基盤 MCP — エージェントとツール連携のプロトコル ソース記事 Gemini Agentモード:Google Workspaceを丸ごと自動化するAIエージェントの実力 — 2026-04-07

2026年4月15日 · 1 分

仮想渋谷にAIエージェントを解き放つ──社会シミュレーションが都市・安全保障・月面開発に活きる理由

スペースデータ社長の佐藤航陽氏が、興味深い社会シミュレーション実験を紹介している。大量のAIエージェントを仮想の渋谷に解き放ち、AI同士が遊んだりLINEしたり飲みに行ったりと自律的に暮らす「人工生態系」を構築するというプロジェクトだ。 大量のAIエージェントを仮想の渋谷に解き放って活動させる社会シミュレーション。AI同士が遊んだりLINEしたり飲みに行ったりと好き勝手に暮らす人工生態系。AI同士の相互作用と創発を観察することで、都市開発・安全保障・月面開発にも活きる。 — 佐藤航陽(さとうかつあき)@ka2aki86 仮想渋谷のAIエージェント生態系とは このシミュレーションの特徴は、AIエージェントを「タスク実行マシン」ではなく「社会的な存在」として扱う点にある。 自律的な意思決定: 各エージェントが自分の判断で行動を選択する 社会的な相互作用: AI同士が会話し、グループを形成し、関係性を構築する 日常的な活動: 飲みに行く、LINEする、遊ぶといった人間の行動を模倣する 渋谷という舞台: 実在の都市を仮想空間に再現し、リアリティを持たせる マルチエージェントシミュレーションとしては「Generative Agents」(Stanford大の研究)が先駆的な成果として知られるが、渋谷という具体的な都市空間を舞台にした大規模版という位置付けとなる。 なぜ「創発」の観察が重要なのか 個々のAIエージェントに与えるルールは単純でも、多数が相互作用することで予測不能なパターン(創発)が生まれる。これがこのシミュレーションの核心だ。 たとえば: 特定のエリアに人が集まりやすい「ホットスポット」が自然発生する 情報が口コミのように広がる速度・経路が可視化できる 緊急事態(災害など)の際、群衆がどう動くかをシミュレートできる こうした現象を観察・分析することで、現実世界の都市設計や政策立案に役立つデータが得られる。 3つの応用領域 佐藤氏が挙げる応用領域は、一見すると無関係に見えるが、いずれも「多数の人間(またはエージェント)が限られた空間でどう行動・協調するか」という共通テーマでつながっている。 都市開発 新しい施設を建てた場合の人流シミュレーション 商業エリアの最適配置の検証 交通渋滞や混雑を事前に予測するモデリング 安全保障 情報拡散(デマ・プロパガンダ含む)のシミュレーション サイバー攻撃時の社会的影響のモデリング 危機時の住民行動予測と対応策の検討 月面開発 スペースデータが手がける宇宙開発の文脈では特に重要だ。月面基地のような閉鎖環境での人間(またはロボット)の行動最適化、限られたリソース配分のシミュレーション、長期的なコミュニティ維持のモデルなど、地球上での社会シミュレーションが直接活用できる。 マルチエージェント研究の潮流 2026年現在、AIエージェント研究はツール呼び出しや単一タスク完結から、複数エージェントが協調・競合する「マルチエージェントシステム」へと急速にシフトしている。 Anthropicの「Claude」やOpenAIの「GPT-4o」などの大規模言語モデルをベースにしたエージェントは、複雑な状況判断や自然言語コミュニケーションを自律的に行えるようになった。これを多数並列稼働させることで、従来のルールベースシミュレーションでは再現できなかった「人間らしい」社会ダイナミクスの再現が可能になっている。 まとめ 仮想渋谷でのAIエージェント社会シミュレーションは、単なる技術的な面白さを超えて、現実世界への応用価値を持つ研究だ。AI同士の相互作用から生まれる創発現象を観察・分析することで、都市計画から宇宙開発まで、広範な領域で人間の意思決定を支援するツールになり得る。 佐藤氏のビジョン──「宇宙の民主化」を目指しながら地球上の社会シミュレーションを積み重ねるアプローチ──は、AIエージェント技術の一つの未来像を示している。

2026年4月15日 · 1 分

Claude Code で作る「世界AIシミュレーター」— 20カ国AIエージェントが自律外交・紛争するリアルタイム地政学ゲーム

Claude Code を使って、20カ国それぞれにAIエージェントを配置し、自律的に外交・貿易・紛争をシミュレートする「世界AIシミュレーター」を作っている開発者が話題になっています。放っておくと日米AI同盟が自然発生したり、中国AIがレアアース輸出制限を発動したりと、リアルな地政学ドラマがAIによって自動生成される面白い試みです。 「世界AIシミュレーター」とは すぐる氏(@SuguruKun_ai)が Claude Code を使って開発中のプロジェクトで、世界20カ国それぞれにAIエージェントを配置し、各国AIが自律的に外交判断を下して動く「世界AIシミュレーター」です。 主な特徴は以下の通りです: 20カ国のAIエージェント: それぞれの国を担当するAIエージェントが独立して意思決定する 自律外交: 同盟、貿易協定、技術共有、紛争まで全部自動でAIが判断 3Dビジュアライゼーション: 3D地球儀上でリアルタイムにビームが飛び交う タイプライター演出: 外交チャットがタイプライター効果でリアルに流れる ライブニュース速報: 画面下部にニュース速報がLIVE表示される Claude Code でマルチエージェント地政学シミュレーション このプロジェクトの技術的なポイントは、Claude Code を使ってマルチエージェントシステムを構築している点です。各国エージェントは以下のような判断を自律的に行います: 外交アクション 同盟締結: 他国AIと交渉して軍事・経済同盟を形成 貿易協定: 輸出入条件を自律交渉して協定を締結 技術共有: AI・半導体・エネルギー等の技術移転協議 経済制裁: 対立国へのレアアースや輸出制限の発動 リアルで面白い展開 実際に動かすと予想外のドラマが生まれるとのことです: 「放っておくと勝手に日米AI同盟が組まれたり、中国AIがレアアース輸出制限を発動したりして普通に面白いです笑」 (すぐる氏 @SuguruKun_ai) 現実の地政学的文脈を反映したかのような判断をAIが自律的に下す様子は、単なるランダムなシミュレーションを超えて、実際の国際関係の力学を模倣しているようにも見えます。 マルチエージェントシステムの設計パターン このような「複数AIエージェントが自律的に相互作用するシステム」を Claude Code で構築する際の一般的なパターンを整理します。 エージェント間通信の設計 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 # 各国エージェントの基本構造(概念的な例) class CountryAgent: def __init__(self, country_name: str, context: dict): self.country = country_name self.context = context # 国の状況・価値観・戦略 def evaluate_proposal(self, proposal: dict, from_country: str) -> dict: """外交提案を評価して応答を返す""" prompt = f""" あなたは{self.country}の外交担当AIです。 {from_country}から以下の提案が届きました: {proposal} 現在の国際情勢: {self.context} この提案を受け入れるか、修正提案を出すか、拒否するかを判断してください。 """ # Claude API でエージェントの判断を生成 return call_claude(prompt) def decide_action(self, world_state: dict) -> dict: """現在の世界情勢を見て次のアクションを決定""" # 外交提案・経済制裁・同盟申請などを自律生成 ... リアルタイムビジュアライゼーション 3D地球儀上でのリアルタイム表示には、実際の使用技術は公開されていませんが、以下のような構成が一般的です: ...

2026年4月14日 · 2 分

OpenClaw vs Hermes: AIエージェントプラットフォームの勢力図に変化

AIエージェントプラットフォームの世界で、OpenClaw から Hermes への乗り換えが予想以上の速さで進んでいるという観測が SNS 上で広まっている。 ポイント 韓国の技術インフルエンサー Cognac(꼬냑)氏が X(旧 Twitter)に投稿した内容によると、最近 OpenClaw から Hermes に切り替えるユーザーが増えているとのこと。その理由として以下の 5 点が挙げられている。 再帰的メモリの改善で Hermes が圧勝 エージェントが過去の文脈を再帰的に参照して学習・記憶を改善する仕組みが Hermes のほうが優れているとされる。 チーム単位ではなくエンタープライズ単位での管理 組織全体での一元管理が可能なエンタープライズ向け機能が充実している。 エンタープライズレベルでのスキル作成で信頼性が向上 大規模組織での運用実績が積み重なり、Hermes のスキル(機能拡張)に対する信頼感が高まっている。 開発チームおよび会社の対応が非常に迅速 不具合報告や機能要望に対するフィードバックループが速く、ユーザーの信頼を獲得している。 GitHub からのコピー&ペースト不要で自動アップデート OpenClaw では GitHub からスキルや設定を手動でコピーする手間があったが、Hermes は自動更新で手間が少ない。 OpenClaw との比較 OpenClaw はこれまで AIエージェントのスキル管理や Claude Code との連携で注目されてきたプラットフォームだが、以下の点でユーザーの不満が蓄積しているようだ。 エラーの多さとレスポンスの遅さ スキルの手動管理(GitHub からのコピー&ペースト作業) エンタープライズ向け機能の不足 一方 Hermes は、再帰的メモリの技術的優位性とエンタープライズ対応、迅速な開発サイクルを武器に、OpenClaw ユーザーの取り込みを加速させている。 まとめ AIエージェントプラットフォームは機能面だけでなく、開発チームの対応速度 や エンタープライズ対応 など非技術的な要素でも差がつく時代になっている。今後も Hermes と OpenClaw の競争から目が離せない。

2026年4月12日 · 1 分

Claude Code にカオスエンジニアリングエージェントを導入してリポジトリの弱点を発見する

Claude Code のカスタムエージェント機能を使って「カオスエンジニア」を導入すると、リポジトリの潜在的な弱点を自動的に発見できる。.md ファイルを1つ置くだけで有効化でき、驚くほど多くの問題が見つかることで話題になっている。 カオスエンジニアリングとは カオスエンジニアリングは、本番システムに意図的に障害を注入してシステムの耐障害性を検証する手法だ。Netflix が提唱した概念で、Chaos Monkey のような自動障害注入ツールが知られている。 Claude Code にカオスエンジニアリングの思考を持ったエージェントを持ち込むと、コードベースに対して「もし〇〇が壊れたら?」という視点で弱点分析を行ってくれる。 導入方法 Claude Code のカスタムエージェントは .claude/agents/ ディレクトリに .md ファイルを置くだけで使える。 以下が chaos-engineer エージェントの定義例だ: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 # chaos-engineer あなたはカオスエンジニアリングの専門家です。 システムに意図的に障害を起こす視点でリポジトリを分析し、 潜在的な弱点・単一障害点・エラーハンドリングの欠如を特定してください。 ## 分析観点 - 単一障害点(SPOF)の特定 - エラーハンドリングの欠如箇所 - タイムアウト設定の不備 - リトライ処理の欠如 - 環境変数・設定値のハードコーディング - 依存サービスがダウンした場合の挙動 - データ整合性が保証されない処理 - テストカバレッジが低い重要処理 ## 出力形式 各問題について以下を明記する: - 問題箇所(ファイルパス・行番号) - 障害シナリオ - 影響範囲 - 推奨する対策 このファイルを .claude/agents/chaos-engineer.md として保存する。 ...

2026年4月7日 · 2 分

Gemini Agentモード:Google Workspaceを丸ごと自動化するAIエージェントの実力

GoogleのGemini Agentモードが、AIエージェント界隈で大きな注目を集めている。Gmail、カレンダー、Drive、スライドといったGoogle Workspaceアプリを横断し、複雑なタスクを自動処理できる機能だ。従来のチャットAIとは一線を画すその実力を、OpenClawとの比較も交えて見ていく。 Gemini Agentモードとは Gemini Agentモードは、Googleが提供するAIアシスタント「Gemini」に搭載されたエージェント機能だ。従来のチャット型AIとは異なり、ユーザーの指示に基づいて計画を立て、複数のアプリやサービスを横断して、タスクを自律的に実行する。 主な特徴は以下の通り。 マルチステップタスクの自動実行: 計画→情報収集→処理→出力を一連の流れで実行 Google Workspace連携: Gmail、Google Calendar、Google Drive、Keep、Tasks等と統合 ライブウェブブラウジング: Webサイトを開いて情報を収集・比較 ユーザーコントロール: 重要なアクション(メール送信、購入など)の前に確認を求める 具体的にできること Gemini Agentモードの強力さは、実務的なタスクを連鎖的に処理できる点にある。 Google Workspace連携の例 Gmailの未返信メールを確認して要点を整理 返信案を自動作成 カレンダーで候補日を確認してスケジュール調整 Driveの資料を参照 Googleスライドで提案資料を作成 これらを1つのプロンプトで連続処理できる。 ブラウザ操作 Webサイトを開いて情報を収集 YouTubeを情報源として調査 ToDoリストへの追加 不要メールのアーカイブ 定期実行(スケジュールドアクション) Gemini Agentモードの特筆すべき機能の1つがスケジュールドアクションだ。「毎日」「毎週」などの頻度でタスクを定期実行できる。繰り返し頻度は毎時・毎日・毎週・毎月・毎年から選択でき、実行時間もカスタマイズ可能だ。 例えば、以下のような自動化が実現できる。 毎朝のメール要約とカレンダー確認 週次のプロジェクト進捗レポート作成 定期的なDrive内ファイルの整理 AIを「使う」のではなく、AIを「働かせる」という発想の転換だ。 OpenClawとの比較 OpenClawは、2025年11月にオーストリアの開発者Peter Steinbergerが「Clawdbot」として公開したオープンソースのAIエージェントだ。Anthropicからの商標問題を受けて「Moltbot」に改名し、その後「OpenClaw」へ変更された。GitHubスターは25万を超え、開発者コミュニティで大きな注目を集めている。ファイル操作、シェルコマンド実行、ブラウザ操作など100以上のビルトインスキルを備える。 項目 Gemini Agent OpenClaw 提供形態 Googleのクラウドサービス オープンソース(セルフホスト) Google Workspace連携 ネイティブ統合 API経由で設定が必要 定期実行 標準機能 自前での設定が必要 カスタマイズ性 限定的 高い(スキル追加可能) セキュリティ Googleの管理下 スキルの安全性は自己責任 料金 Google AI Ultra(有料) 無料(LLM APIは別途) Gemini Agentの強みは、Google Workspaceとのネイティブ統合とスケジュール実行の手軽さだ。一方、OpenClawは高いカスタマイズ性とセルフホストによるデータ管理が利点となる。 ...

2026年4月7日 · 1 分

OpenClaw に動画生成機能が正式搭載へ — AI エージェントが制作まで完結する時代

OpenClaw の創業者 Peter 氏が、次のバージョンで動画生成機能を正式搭載することを発表した。これにより、AI エージェントがテキストから動画生成までを一気通貫で完結できるようになる。 動画生成の対応プロバイダー 次バージョンでは、以下のプロバイダーが最初からサポートされる予定だ。 Alibaba BytePlus fal Google MiniMax OpenAI Qwen Together xAI 主要な動画生成 AI サービスをほぼ網羅しており、ユーザーはプロバイダーを選んでワークフロー内で動画を生成できるようになる。 これまでとこれからの違い この機能追加の意義は、ワークフローの断絶をなくすことにある。 これまで テキスト → 画像生成 → 外部ツールで動画化 外部ツールへの手動エクスポートが必要で、エージェントのフローが途切れていた。 これから テキスト指示 → AI エージェントが動画生成まで完結 エージェントが動画生成まで一手に担うことで、制作フローをエンド・ツー・エンドで自動化できる。 「もう 1 人の自分」から「チームそのもの」へ これまで OpenClaw は「もう 1 人の自分」として個人の作業を補助する位置づけだったが、動画生成の搭載によって**「チームそのもの」**として機能し始めていると言える。 テキスト生成・コード生成に加え、映像制作まで担当 複数の動画生成プロバイダーに対応することで、用途に応じた使い分けが可能 AIエージェントが「考える」だけでなく「制作する」領域まで拡張 まとめ OpenClaw への動画生成機能の追加は、AI エージェントの役割が「情報処理・生成支援」から「クリエイティブ制作」へと拡張する大きな転換点だ。9 つの主要プロバイダーへの対応により、動画コンテンツの制作フローを AI エージェント内で完結させられる可能性が開かれた。 正式リリース時には、具体的なプロンプト設計や各プロバイダーとの使い分けについても検証していきたい。 情報ソース: @ichiaimarketer のポスト(2026-04-07) 元ツイートを見る

2026年4月7日 · 1 分

Claude Code

概要 Anthropic が開発する CLI ベースの AI コーディングエージェント。ターミナル上で対話しながらコードの読み書き、ファイル操作、git 操作、テスト実行などを行える。 主な特徴 CLI ネイティブ: ターミナルで直接対話(IDE 拡張版も提供) ツール統合: ファイル読み書き、Bash 実行、Grep/Glob 検索、Web 検索等 CLAUDE.md: プロジェクトごとのルール・設定ファイル(圧縮後も再読み込みされる) サブエージェント: 複雑なタスクを並列エージェントに委任可能 スキル/フック: カスタムワークフローの定義と自動化 コンテキスト管理 5段階の圧縮カスケードでコンテキストウィンドウを管理する: Microcompact → Context Collapse → Session Memory → Full Compact → PTL Truncation 詳細: コンテキスト圧縮 LLM Wiki との関連 Karpathy は Claude Code を LLM Wiki の実行環境として使用。「左画面に Claude Code、右画面に Obsidian」というワークフローを実践。 思考深度のサイレント・ダウングレード問題 2026年4月、AMD のシニア AI ディレクターが約 6,852 セッション分のログ分析で発見した問題。2026年3月8日以降、Claude Code の思考の中央値が約 2,200 文字から約 600 文字(67%減)に低下していた。Anthropic は「アダプティブ・シンキング」による変更を認め、/effort max コマンドで高い思考深度を維持できると説明した。 ...

2026年4月6日 · 2 分

OpenClaw + Ollama + Gemma4 でローカル無料AIエージェントを構築する

API課金なしで、ローカル環境にAIエージェントを無制限で運用できるセットアップ方法を紹介します。OpenClaw(エージェントインターフェース)+ Ollama(ローカルモデルサーバー)+ Gemma4(推論エンジン)の組み合わせにより、Telegram・Discord・LINEなどの既存チャンネルともシームレスに連携できます。 構成概要 コンポーネント 役割 OpenClaw AIエージェントのインターフェース・オーケストレーション Ollama ローカルLLMサーバー(モデルの管理・API提供) Gemma4 推論エンジン(Google製オープンモデル) この3つを組み合わせることで、クラウドAPIへの依存なしにフル機能のAIエージェントが動作します。 セットアップ手順 1. Ollama のインストール 1 2 3 4 5 # macOS / Linux curl -fsSL https://ollama.ai/install.sh | sh # Windows # https://ollama.ai から インストーラーをダウンロード 2. Gemma4 モデルの取得 1 ollama pull gemma4 3. OpenClaw のインストール 1 npm install -g openclaw 4. オンボーディングウィザードの実行 1 openclaw onboard ウィザードに従ってOllama接続設定とチャンネル連携(Telegram・Discord・LINEなど)を行います。 ...

2026年4月6日 · 1 分

Karpathy の LLM Wiki — AIエージェントが育てる個人ナレッジベースという新パターン

Andrej Karpathy が GitHub に「ファイル1つ」をアップロードし、10時間で星1,700超・フォーク300超を記録した。コードでもアプリでもない、マークダウン文書1枚だ。名前は llm-wiki.md。この文書が提案するのは、LLM エージェントに個人ナレッジベース(Wiki)を継続的に構築・保守させるというパターンだ。 RAG の限界 — 毎回ゼロから読み直す問題 現在、多くの人が AI に対してやっていることは「ファイルを渡して要約させる」「質問のたびにドキュメントを検索させる」の繰り返しだ。これは RAG(Retrieval-Augmented Generation: 検索で補強した文章生成)と呼ばれる手法で、技術的には問題ない。 しかし Karpathy はこの方式を「毎日同じ本を初めて読む人に質問を投げるようなもの」と表現する。AI は昨日読んだ内容を今日忘れる。蓄積がない。5つの文書を横断して初めてわかる微妙な問いには、毎回断片をかき集めて一からつなぎ合わせる必要がある。 LLM Wiki のアイデア — 知識を「積み上げる」 Karpathy が提案するのは、AI にドキュメントを読ませるたびにWiki を更新させるというアプローチだ。 新しい資料を投入するたびに、AI は: 要約ページを作成する 既存のエンティティページ・概念ページを更新する 相互参照リンクを張る 矛盾があればフラグを立てる インデックスとログを更新する つまり、知識は一度コンパイルされて保持され、クエリのたびに再導出されるのではない。Wiki は永続的で複利的に成長するアーティファクトになる。 三層構造 LLM Wiki のアーキテクチャはシンプルな三層構造だ。 1. Raw Sources(原本資料) 論文、記事、メモなど、ユーザーがキュレーションした元資料。AI はこれを読むだけで、絶対に変更しない。これが信頼できる唯一の情報源(source of truth)となる。 2. Wiki(知識ベース) AI が生成・保守するマークダウンファイル群。要約ページ、エンティティページ、概念ページ、比較ページ、概要、統合的な考察など。ユーザーが読み、AI が書く。 3. Schema(設定) AI に「この Wiki をどう管理するか」を伝える設定ファイル。Karpathy は AI エージェントの設定ファイル(CLAUDE.md や AGENTS.md)に置くことを推奨している。Wiki の構造、命名規則、取り込みワークフロー、回答フォーマットなどを定義する。 三つの基本操作 操作 内容 Ingest(取り込み) 新しい資料を投入し、AI に読ませて Wiki を更新させる。1つの資料で10〜15ページが更新されることもある Query(質問) Wiki に対して質問する。AI はインデックスから関連ページを探し、統合的に回答する。良い回答は新しい Wiki ページとして保存できる Lint(保守) 定期的に Wiki の健全性をチェックする。矛盾、古い記述、孤立ページ、欠落リンクなどを検出・修正する 「アイデアファイル」という新しい共有形態 この llm-wiki.md が爆発的に広まった理由について、Karpathy 自身がこう述べている: ...

2026年4月5日 · 1 分