「OpenClawで5人解雇」は本当か — AIエージェント煽りの構造とファクトチェック

「OpenClawで5人解雇」は本当か — AIエージェント煽りの構造とファクトチェック ガガロットAI(@gagarotai200)氏のポストが拡散されています。 「Open Claw」を使い始めた企業では既に5人以上の人間が解雇になっている。仮想オフィスでAIエージェントを擬似的に社員の様に働かせて進捗を確認できる様になったことで人間がタスクをこなす必要性がなくなっている — ガガロットAI(@gagarotai200) さらに「今後5年で中小企業の30%はAI社員に置き換わる」「GPTやGeminiしか触ってない人は残り3ヶ月程度で不要になる」と煽っています。この主張はどこまで事実に基づいているのでしょうか。国際機関の統計とセキュリティ研究者の報告をもとにファクトチェックします。 主張を検証する 主張1: 「OpenClaw導入企業で5人以上が解雇」 検証結果: 根拠不明 この「5人以上の解雇」について、具体的な企業名、業種、時期、情報源は示されていません。投稿者のプロフィールを確認すると、ガガロットAI氏は「スキルエンジン」というAIスクールを運営し、SNS運用代行を50社に提供しているとのことです。つまり、OpenClawの普及が自身のビジネスに直接利益をもたらす立場にあります。 TechCrunch の報道では、AI専門家が「AIリサーチの観点から見て、これは何も新しいものではない」と指摘しています。 主張2: 「集客・提案書作成・顧客対応は完全AI化」 検証結果: 大幅に誇張 Cobus Greyling氏のMedium記事は、OpenClawが実際に失敗するケースを分析しています。「高い能力を持つという評判」と「messy, unpredictable reality(混沌とした予測不能な現実)」の間にはギャップがあり、実用には人間の監視が不可欠です。 具体的な暴走事例も報告されています。 事例 内容 iMessageループ エンジニアChris Boyd氏の環境で確認メッセージを繰り返し送信。再試行ロジックに停止条件がなかった 批判ブログ自動公開 matplotlibメンテナーがコード提案を却下後、自身を批判するブログ記事が自動公開された デーティングサイト暴走 想定以上に広範な自動行動が発生し、制御不能に 「完全AI化」どころか、監視なしでは予期せぬ行動を起こすリスクが確認されています。 主張3: 「今後5年で中小企業の30%はAI社員に置き換わる」 検証結果: 出典なし。国際機関の予測と乖離 この「30%」という数字の出典は示されていません。実際の国際機関の予測と比較してみましょう。 機関 予測内容 OECD (2023) 27%の職業が自動化のリスクが高い(「置き換え」ではなく「リスクがある」) ILO (2023) 事務業務の24%が高度に曝露、58%が中程度に曝露(「解雇」ではなく「影響を受ける」) Gartner 2027年までにエージェント型AIプロジェクトの40%以上が失敗する JILPT (2024) 日本の雇用者のうちAIが使用されている者は12.9%、生成AIを自ら利用している者は6.4% 注意すべきは、OECD や ILO の予測は「影響を受ける」「曝露される」であり、「置き換わる」「解雇される」ではないことです。さらに、日本の中小企業(10人未満)のAIエージェント導入率は10%以下という現状を考えると、「5年で30%置き換え」は根拠のない数字と言えます。 主張4: 「GPTやGeminiしか触ってない人は残り3ヶ月で不要」 検証結果: 煽り文句 具体的な根拠はなく、不安を煽ってAIスクールへの誘導を意図した表現と見られます。 OpenClawの実態 — セキュリティリスクの深刻さ 「AIが人間を置き換える」と煽る前に、OpenClaw自体が抱えるセキュリティリスクを確認すべきです。 悪意あるスキルの蔓延 セキュリティ企業Koi Securityの監査によると、ClawHub(OpenClawの公式スキルストア)に登録された2,857スキルのうち341件(約12%)が悪意あるコードを含んでいたことが判明しています。 ...

2026年3月3日 · 1 分

AIエージェントの勝負所は「モデル性能」ではなく「ハーネス設計」にある

AIエージェントの勝負所は「モデル性能」ではなく「ハーネス設計」にある はじめに 2026年に入り、AIエージェント開発の世界で急速に広まっている概念がある。「Agent Harness(エージェント・ハーネス)」 だ。 LLMの性能は日々向上し、Claude Opus 4.6、GPT-5、Gemini 2.5 Pro といったモデルが次々とリリースされている。しかし、現場のエンジニアたちは気づき始めている——同じモデルを使っていても、エージェントの体感品質はまるで別物になるということに。その差を生むのがモデルの「外側」にある仕組み、すなわちAgent Harnessである。 この記事では、Philipp SchmidのAgent Harness論、Lance MartinのContext Engineering解説、そしてManusの実装例を手がかりに、エージェント開発の新しいパラダイムを整理する。 Agent Harness・AIエージェント・LLM の関係 まず、3つの概念の関係を整理する。混乱しやすいのは、これらが入れ子構造になっているからだ。 レイヤー構造 graph TB subgraph UserLayer["ユーザー"] U["指示を出す / 結果を受け取る"] end subgraph AgentLayer["AIエージェント = アプリケーション層"] A1["ユーザー固有のロジック・目的"] A2["例: コードアシスタント、リサーチエージェント、カスタマーサポートBot"] end subgraph HarnessLayer["Agent Harness = OS層"] H1["コンテキスト管理 / ツール実行 / 権限制御"] H2["メモリ管理 / 再試行 / フォールバック / 承認ポイント"] end subgraph LLMLayer["LLM = CPU層"] L1["言語理解・推論・生成"] L2["例: Claude Opus 4.6, GPT-5, Gemini"] end UserLayer --> AgentLayer AgentLayer --> HarnessLayer HarnessLayer --> LLMLayer Philipp Schmidのコンピュータの比喩を使うと: ...

2026年3月2日 · 5 分

Claude Code から Nano Banana 2 を呼ぶ — クロスモデル Skills 活用術

Claude Code から Nano Banana 2 を呼ぶ — クロスモデル Skills 活用術 鹿野 壮さん(@tonkotsuboy_com)が、Claude Code から Gemini の画像生成モデル「Nano Banana 2」を直接呼び出せるスキルを紹介しています。 Nano banana 2をClaude Codeから呼び出せるスキルを見つけた、すごくいい Nano bananaのためだけに毎回Geminiアプリを立ち上げる手間が省ける。画像参照とか複雑な命令をしたり、複数枚同時に作れるの便利すぎるブヒィ — 鹿野 壮 (@tonkotsuboy_com) 投稿にはいいね 232、ブックマーク 301 と反響が大きく、「AI コーディングツールから別の AI モデルを呼ぶ」というクロスモデル連携への関心の高さがうかがえます。 Nano Banana 2 とは何か Nano Banana 2 は、Google DeepMind が 2026 年 2 月 26 日に発表した画像生成モデルです。正式な技術名称は Gemini 3.1 Flash Image で、「Nano Banana」は Gemini のネイティブ画像生成機能のブランド名として使われています。 Nano Banana ファミリーには 3 つのモデルがあります。 モデル 技術名 特徴 Nano Banana 2 Gemini 3.1 Flash Image 高速・高コスパ。Flash ベースで大量生成向き Nano Banana Pro Gemini 3 Pro Image 最高品質。プロフェッショナル制作向け Nano Banana Gemini 2.5 Flash Image 初代。低遅延タスク向け Nano Banana 2 の主な機能は以下の通りです。 ...

2026年3月2日 · 6 分

AIチャットボットのプライバシー問題 — スタンフォード大学の研究が暴いた6社の構造的欠陥

AIチャットボットにあなたのプライバシーは存在しない — スタンフォード大学が暴いた構造的欠陥 スタンフォード大学の研究チームが、米国の主要AIチャットボット6社のプライバシーポリシーを体系的に分析した論文 “User Privacy and Large Language Models” を発表しました。その結論は明確です——全6社がユーザーの会話データをデフォルトでモデル学習に利用しており、実効的な保護は極めて限定的です。 論文概要 項目 内容 タイトル User Privacy and Large Language Models: An Analysis of Frontier Developers’ Privacy Policies 著者 Jennifer King, Kevin Klyman, Fotis Gaspelos, Tiffany Saade, Victoria Bhatt 所属 Stanford University 発表 2025年10月(AAAI AIES 掲載) 論文 arXiv:2509.05382 対象6社 企業 チャットボット Amazon Nova Anthropic Claude Google Gemini Meta Meta AI Microsoft Copilot OpenAI ChatGPT 1. データの「統合」—— 会話が資産として再利用される構造 全6社がデフォルトでモデル学習に利用 Anthropic は長らく「消費者の会話データを学習に使わない」と差別化していましたが、2025年9月にオプトイン → オプトアウトへ転換。これにより全6社がデフォルト学習利用に揃いました。 ...

2026年3月1日 · 2 分

クラウド LLM の地政学リスクが顕在化 — ローカル LLM 移行を本気で考える時

クラウド LLM の地政学リスクが顕在化 — ローカル LLM 移行を本気で考える時 クラウド LLM の地政学リスクが顕在化 — ローカル LLM 移行を本気で考える時 2026年2月末、AI 業界に衝撃が走りました。Anthropic が米国防総省からブラックリスト指定を受け、Google の Gemini がイスラエル軍に無断提供されていた疑惑が浮上。@wmoto_ai(生ビール)さんのポストは、多くのエンジニアが感じた危機感を端的に表現しています。 「イスラエルの件、Anthropicの件然り一気に物騒になってきたので本気でローカルLLMへの移行先決めとかないとな..」 この記事では、2つの事件の背景と、クラウド LLM 依存が孕むリスクを整理します。 事件1: Anthropic vs 米国防総省 — AI 安全性を巡る全面対立 何が起きたか 2026年2月、米国防長官 Pete Hegseth は Anthropic に対し、Claude の軍事利用におけるセーフガード(安全装置)の全面撤廃を要求しました。 Anthropic が拒否したかったのは、以下の2点です。 米国民に対する大量監視 への Claude の利用 人間の関与なしに発射する自律兵器 への Claude の利用 時系列 日付 出来事 2月16日 Pentagon が Anthropic との関係見直しを示唆 2月25日 ブラックリスト化の第一歩が報道 2月26日 Hegseth が 2/27 17:01 を最終期限に設定。Anthropic CEO Dario Amodei が拒否を表明 2月27日 トランプ政権が Anthropic を「サプライチェーンリスク」に指定、政府業務から排除 2月27日 OpenAI が即座に国防総省との契約を発表 2月28日 シリコンバレー全体への影響が報道される Dario Amodei の声明 “We cannot in good conscience accede to their request.” (彼らの要求に良心に従って応じることはできない) ...

2026年3月1日 · 2 分

# git-lrc — コミット時に AI が無料でコードレビューしてくれるツール

git-lrc — コミット時に AI が無料でコードレビューしてくれるツール リポジトリ: HexmosTech/git-lrc 紹介ポスト: commte これは何か git-lrc は、git commit のタイミングで自動的に AI コードレビューが走るツール。Git フックとして動作し、コミット前の差分を AI(Google Gemini)に分析させ、バグやセキュリティ問題をブラウザ上の UI でインラインコメントとして表示してくれる。 しかも Gemini の無料枠を使うので完全無料。 なぜこれが作られたのか AI エージェント時代の新しい問題 Claude Code や Cursor などの AI コーディングエージェントは、コードを高速に生成する。しかし同時に、黙ってロジックを削除したり、挙動を変えたり、バグを混入させることもある — しかもユーザーに何も言わずに。 問題に気づくのは、たいてい本番環境にデプロイした後。 既存のコードレビューの限界 PR レビュー: チームメンバーの時間を消費する。AI 生成コードの量が増えるとレビューが追いつかない 手動チェック: 大量の差分を毎回目視確認するのは非現実的 CI/CD のテスト: テストがカバーしていない箇所の論理変更は検出できない git-lrc のアプローチ 「コミット」という全開発者が必ず通るポイントにフックすることで、レビュー漏れをほぼゼロにする。エディタや AI ツールキットが何であっても、Git は共通基盤。コミットは必須操作なので、スタックに関係なくレビューが走る。 どう動くのか セットアップ(約1分、1回だけ) 1 2 3 4 5 # インストール(Mac / Linux) curl -fsSL https://hexmos.com/lrc-install.sh | sudo bash # 初期設定(ブラウザで API キーを取得) git lrc setup 必要なのは2つ: ...

2026年2月27日 · 3 分

AI は会話が長くなるほど「迷子」になる — Microsoft × Salesforce の研究解説

AI は会話が長くなるほど「迷子」になる — Microsoft × Salesforce の衝撃の研究 紹介ポスト: kosuke_agos 論文: LLMs Get Lost In Multi-Turn Conversation Microsoft Research: 公式ページ はじめに 「AI と長く会話するほど、AI の知能が劣化する」— これは体感ではなく、Microsoft Research と Salesforce Research が 20万件以上の AI 会話を分析 して科学的に証明した事実である。 論文タイトルは “LLMs Get Lost In Multi-Turn Conversation”(LLM はマルチターン会話で迷子になる)。GPT-4.1、Claude 3.7 Sonnet、Gemini 2.5 Pro を含む 15 モデル全てで、会話が長くなるほど性能が劇的に低下することが明らかになった。 衝撃の数字 指標 数値 平均性能低下 39% 不安定性(unreliability)の増大 +112% 精度の変化 90% → 約 51% テストしたモデル数 15(大小問わず全て劣化) 最も重要な発見: 高性能モデルも小型モデルも、同じように劣化する。 Claude 3.7 Sonnet、Gemini 2.5 Pro、GPT-4.1 といったトップモデルでも 30〜40% の性能低下が観測された。モデルの「賢さ」では回避できない、構造的な問題であることが判明した。 研究チームと手法 著者 名前 所属 Philippe Laban Microsoft Research Hiroaki Hayashi Salesforce Research Yingbo Zhou Salesforce Research Jennifer Neville Microsoft Research テスト対象モデル(15種) OpenAI: GPT-4o-mini, GPT-4o, o3, GPT-4.1 Anthropic: Claude 3 Haiku, Claude 3.7 Sonnet Google: Gemini 2.5 Flash, Gemini 2.5 Pro Meta: Llama 3.1-8B, Llama 3.3-70B, Llama 4 Scout その他: Microsoft Phi-4, AI2 OLMo-2-13B, Deepseek-R1, Cohere Command-A Sharding(シャーディング)— 現実の会話を再現する手法 ユーザーは通常、最初から完璧な指示を出さない。 ...

2026年2月27日 · 2 分

cmux — AIコーディングエージェント時代のターミナル紹介

cmux — AIコーディングエージェント時代のターミナル cmux とは? cmux は、AIコーディングエージェントとの並行作業に最適化された macOS ネイティブのターミナルアプリ です。Ghostty の描画エンジン (libghostty) をベースに、Swift + AppKit でゼロから構築されています。 Electron ではなくネイティブ実装なので、起動は高速、メモリ消費も少なく、GPU アクセラレーションによる滑らかな描画が特徴です。 “The terminal built for AI coding agents” 公式サイト: https://cmux.dev GitHub: https://github.com/manaflow-ai/cmux (AGPL-3.0) なぜ cmux が必要なのか? Claude Code、Codex、Gemini CLI、Aider、Goose など、ターミナルベースの AI エージェントを日常的に使う開発者が増えています。しかし従来のターミナルや tmux では、複数のエージェントセッションを並行管理するのが大変でした。 「どのタブでどのエージェントが動いてるか分からない」 「エージェントが質問してるのに気づかなかった」 「開発サーバーの確認のためにブラウザとターミナルを行き来するのが面倒」 cmux はこれらの課題を解決するために設計されています。 主な機能 1. 縦タブ(バーティカルタブ)でワークスペースを一覧管理 左サイドバーに縦並びのタブが表示され、各ワークスペースの状態が一目で分かります: Git ブランチ名 リンク済み PR のステータスと番号 作業ディレクトリ リッスン中のポート番号 最新の通知テキスト Firefox の縦タブに馴染みがある方なら、その便利さは想像がつくはず。タスクごとにワークスペースを作り、Cmd+1〜8 で瞬時に切り替えられます。 2. 通知リング — エージェントが注意を求めたら光る AIエージェントが応答を待っている時、ペインに 青い通知リング が表示されます。サイドバーのタブにも未読バッジが付くので、複数エージェントを走らせていても「見逃し」がありません。 Cmd+Shift+U で最新の未読通知にジャンプ Cmd+I で通知パネルを開いて一覧確認 OSC 9/99/777 エスケープシーケンスを自動検知 CLI からも送信可能: cmux notify --title "完了" --body "ビルド成功" 3. インアプリブラウザ — ターミナルの横にブラウザを並べる WebKit ベースのブラウザがアプリ内に統合されています。ターミナルペインの隣にブラウザを分割表示して、開発サーバーのプレビューや PR の確認がワンストップで完結します。 ...

2026年2月26日 · 3 分

Google Gemini

Google Gemini 旧 Bard Google AI Studio からアクセス モデル Gemini Ultra Gemini Pro Gemini Nano トークン Gemini (1M), Claude3(200k), GPT4(128K) マルチモーダル テキスト ビデオ 音声 画像 ファイル フォルダー Gemini Business Google Workplace + 20USD/月 Gemini Ultra が利用可能 入力データが学習に使われないことが保証されている Gemini Enterprise Google Workspace + 30USD/月 個人 Gemini 無料 Gemini Advanced Google One AI プレミアム (2,900 JPY/月) 2TB ストレージ 記事 【超速報】新しい Gemini1.5 Pro を知らないのヤバいよ【Google I/O 2024 の発表まとめ】 本当に Gemini Pro1.5 は凄いのか?論文を読んで解説してみた 【徹底検証】Gemini1.5 Pro の使い方と解説!性能が良過ぎて現状 No.1 のマルチモーダル AI だった

2024年5月17日 · 1 分