Claude Code: dangerously-skip-permissions をやめて auto mode に移行する

Claude Code で長時間タスクを実行する際、許可プロンプトを回避するために --dangerously-skip-permissions を使っていた開発者は少なくないだろう。しかし、auto mode の登場により、安全性を保ちながら同様の利便性を得られるようになった。この記事では、両者の違いと auto mode への移行方法を解説する。 dangerously-skip-permissions の問題 claude --dangerously-skip-permissions は、すべての権限チェックを無効化するフラグだ。ファイルの書き込み、シェルコマンドの実行、外部通信など、あらゆる操作が無条件で許可される。 このフラグには以下のリスクがある: プロンプトインジェクション: 悪意あるファイルを読み込んだ場合、任意のコマンドが無条件で実行される 意図しない破壊操作: rm -rf のような危険なコマンドもチェックなしで実行される 認証情報の漏洩: .env ファイルの内容を外部に送信するような操作も通過する Anthropic の開発者も不使用: 社内でも使用が推奨されていない 鹿野 壮 氏(@tonkotsuboy_com、Ubie)は当時の状況をこう振り返っている: 「男は黙って claude –dangerously-skip-permissions」。そうやって生きてきたけど、Anthropicの開発者が使ってなかったり、プロジェクトでは禁止されたりで、肩身の狭い日々でした auto mode とは auto mode は、dangerously-skip-permissions に代わる安全な選択肢だ。ツールの実行を自動承認しつつ、バックグラウンドで安全性チェックを行う。 両者の比較 dangerously-skip-permissions auto mode 権限チェック 完全無効 バックグラウンドで実行 安全性 なし セーフガード付き プロンプトインジェクション耐性 なし あり 危険なコマンドの実行 無条件で実行 検出してブロック 公式ステータス 推奨されていない リサーチプレビュー(2026年3月時点) auto mode の設定方法 起動時に指定する 1 claude --permission-mode auto settings.json でデフォルトにする settings.json の permissions に "defaultMode": "auto" を指定すれば、毎回のフラグ指定が不要になる: ...

2026年3月25日 · 1 分

Claude Codeで「専門家チーム」を構築する:カスタムエージェントとCoworkの活用法

前回の記事では、NotebookLM を使って「20人の専門家チーム」を構築する方法を紹介しました。この記事では、同じ考え方を Claude Code や Cowork で実現する方法を解説します。 NotebookLM と Claude Code の発想の違い NotebookLM は「入れた資料だけを根拠に回答する」ことが強みです。テーマごとにノートブックを分けることで、各ノートブックが「専門家」として機能します。 Claude Code でも同じアプローチが取れます。さらに、コード実行・ファイル編集・外部ツール連携ができるため、「相談する」だけでなく「調査して、コードを書いて、PR を作成する」ところまで一気通貫で任せられます。 観点 NotebookLM Claude Code 専門家の定義 ノートブック + ソース .claude/agents/ + ナレッジ 知識の投入 PDF / Web / Fast Research MCP / ローカルファイル / WebSearch 同時相談 手動で切替 Cowork / Agent Teams で並行実行 引用元表示 自動リンク ファイルパス・行番号 強み 非技術者でも簡単 コード実行・ファイル編集が可能 方法1: カスタムエージェント(.claude/agents/) 最もシンプルで NotebookLM の「専門家ノート」に直接対応する方法です。 カスタムエージェントの仕組み .claude/agents/ ディレクトリに Markdown ファイルを置くだけで、専門エージェントが定義できます。各ファイルにはそのドメインの専門知識・指示・参照先を書きます。 1 2 3 4 5 .claude/agents/ ├── marketing-expert.md # マーケティング専門家 ├── legal-advisor.md # 法務アドバイザー ├── seo-advisor.md # SEO アドバイザー └── fact-checker.md # ファクトチェッカー エージェント定義ファイルの書き方 Markdown ファイルの先頭に YAML フロントマターでメタ情報を定義し、本文にシステムプロンプトを書きます。詳細は 公式ドキュメント を参照してください。 ...

2026年3月25日 · 3 分

Claude Code Agent Teams: セッション間でメッセージをやり取りできるマルチエージェント機能

Claude Code に「Agent Teams」機能が追加されました。複数のセッションがメッセージをやり取りしながら協調作業できる機能です。 従来のサブエージェントは親セッションに結果を返すだけでしたが、Agent Teams ではエージェント同士が直接コミュニケーションを取りながらタスクを進められます。 Agent Teams とは Agent Teams は Claude Code v2.1.32 以降で利用できる実験的機能です。1つのセッションがチームリーダーとなり、複数のチームメイト(それぞれ独立した Claude Code インスタンス)を起動して並列に作業を進めます。 各チームメイトは独自のコンテキストウィンドウを持ち、共有タスクリストを通じて自律的に連携します。 サブエージェントとの違い 比較項目 サブエージェント Agent Teams コンテキスト 独自のコンテキスト、結果を呼び出し元に返却 独自のコンテキスト、完全に独立 コミュニケーション 親エージェントへの一方向のみ チームメイト同士で直接メッセージ送受信 調整方法 親エージェントが全体を管理 共有タスクリストで自己調整 適した用途 結果だけが必要な集中タスク 議論・協調が必要な複雑な作業 トークンコスト 低い(結果が親コンテキストに要約される) 高い(各チームメイトが個別の Claude インスタンス) SendMessage によるエージェント間通信 Agent Teams の中核となるのが SendMessage ツールです。2つの通信方式が用意されています。 directed message: 特定のチームメイトにメッセージを送信 broadcast: 全チームメイトにメッセージを一斉送信 メッセージは各チームメイトの受信ボックスに JSON として追記されます。受信ボックスのパスは ~/.claude/teams/<project>/inboxes/<name>.json です。メッセージは次のターンで読み取られ、会話履歴に新しいユーザーターンとして注入されます。 有効化と使い方 Agent Teams はデフォルトで無効です。~/.claude/settings.json で環境変数を設定して有効化します。 1 2 3 4 5 { "env": { "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1" } } 有効化後は、自然言語でチーム構成を指示するだけで起動できます。 ...

2026年3月23日 · 3 分

Claude Codeを使うなら最低限やっておきたい「7つのセキュリティ設定」

Claude Code が勝手に git push --force しかけた——そんな冷や汗体験から真剣にセキュリティ設定を見直したという実践的なまとめです。Anthropic の公式ドキュメントにも「セキュリティは自分で設定しろ」と明記されており、AIエージェントに人間と同じ権限を与えるリスクを理解した上で対策を講じる必要があります。 1. サンドボックスを有効にする(そして脱出口を塞ぐ) サンドボックスは Claude Code が実行する Bash コマンドを OS レベルで隔離する機能です。macOS では Seatbelt(macOS 標準のサンドボックス機構)、Linux では Bubble Wrap(軽量コンテナ隔離ツール)が使われます。 現在の状態は /sandbox コマンドで確認できます。設定ファイルで明示的に有効化するには: 1 2 3 4 5 6 { "sandbox": { "enabled": true, "allowUnsandboxedCommands": false } } ポイントは allowUnsandboxedCommands: false です。デフォルトでは allowUnsandboxedCommands: true になっており、サンドボックス制限でコマンドが失敗した場合、Claude がユーザーの許可を得た上で dangerouslyDisableSandbox パラメータ付きでリトライできる仕組みになっています。allowUnsandboxedCommands: false を設定して初めて、この脱出口が完全に塞がります。 ...

2026年3月23日 · 2 分

Claude Cowork 完全ガイド — 機能解説・料金・活用事例20選まとめ

Anthropic が 2026年1月にリリースした「Claude Cowork」は、従来の AI チャットとは根本的に異なる「AI に仕事を丸投げできる仕組み」です。本記事では、Cowork の全機能・料金プラン・セットアップ手順・活用事例20選・セキュリティ対策までを網羅的にまとめます。 Claude Cowork とは — 「AI チャット」ではなく「AI の同僚」 通常の AI チャット(ブラウザ版 Claude)は「アドバイスをくれる相談相手」です。構成案は提案してくれますが、実際にファイルを作るのは自分です。一方 Cowork は、フォルダの中身を読み書きし、計画を立て、成果物を納品してくれる「隣の席の同僚」です。 5つのコア能力 ファイル直接操作 — PC 上のファイルを直接読み書き。手動アップロード不要 タスクの自動分解 — 複雑な作業をサブタスクに分解して並行実行 プロフェッショナル品質の出力 — 数式入り Excel、見栄えの良い PowerPoint を生成 長時間処理 — 通常チャットのタイムアウト制限なし マルチタスク — 複数タスクをキューに入れて同時処理 料金プラン(2026年3月時点) プラン 月額 特徴 Pro $20(約3,000円) 個人利用の標準プラン。週数回の利用なら十分 Max 5x $100(約15,000円) Pro の5倍の利用枠。毎日使うユーザー向け Max 20x $200(約30,000円) Pro の20倍。1日中フル稼働させたいヘビーユーザー向け Team $25〜/人 5名以上のチーム向け。管理機能付き Enterprise 個別見積もり SSO、監査ログ等の企業向け機能 注意: 2026年4月1日から日本の消費税10%が加算されます(Pro なら約3,300円/月)。 利用枠は「5時間のローリングウィンドウ」でリセット。Cowork は通常チャットよりはるかに多く消費するため、簡単な質問はチャットで、ファイル操作や自動化が必要なタスクだけ Cowork で、という使い分けが重要です。 ...

2026年3月23日 · 2 分

Anthropic Dispatch:スマホからPCのClaudeに仕事を投げる新機能

Anthropic が 2026年3月17日、Claude Cowork の新機能「Dispatch」のリサーチプレビューを開始した。スマホから指示を出すだけで、PC 上の Claude がタスクを自律的に実行してくれるという機能だ。 Dispatch とは Dispatch は、モバイル端末から PC 上で動作する Claude に対してタスクを割り当てられる機能。Claude Cowork のデスクトップアプリと iOS/Android のモバイルアプリを連携させ、外出中にスマホから指示を送り、帰宅したら作業が完了している、という使い方ができる。 主な特徴 モバイル・デスクトップ連携 スマホの Claude アプリからデスクトップ PC 上の Claude Cowork にタスクを送信する。PC 側では Computer Use(Claude がデスクトップの画面を認識して操作する機能)と組み合わせて、アプリの起動、ブラウザ操作、スプレッドシートへのデータ入力などを自律的に実行する。 永続的な会話スレッド モバイルとデスクトップの間で単一の会話スレッドが維持される。従来の Claude との会話ではセッションごとにコンテキストがリセットされていたが、Dispatch では前回のやり取りを記憶した状態でタスクを継続できる。 ローカル処理によるデータガバナンス タスク実行時のデータ処理はユーザーの PC 上で行われる。これにより、データガバナンスとコンプライアンスの面で優位性がある。 サンドボックス環境 ファイル操作などの重要なアクションは、実行前にユーザーの事前承認が必要。安全性を確保しつつ自律的な動作を実現している。 利用可能なプラン 2026年3月時点での対応状況: プラン 対応状況 Max 20x / Max 5x 利用可能 Pro 数日以内に対応予定 Free 2026年後半に対応予定 対応 OS は macOS のみ(リサーチプレビュー時点)。 OpenClaw との比較 Dispatch は、中国発のデスクトップ操作自動化オープンソースフレームワーク OpenClaw への Anthropic の回答とも位置づけられている。OpenClaw が深圳で大きな話題を呼んだのに対し、Dispatch はエンタープライズ向けの管理性・安全性を重視した設計になっている。 ...

2026年3月18日 · 1 分

Anthropic AI Academy: Claude を体系的に学べる無料公式コース

Anthropic が公式の学習プラットフォーム「Anthropic Academy」を無料公開しました。Claude Code、API、MCP、エージェントスキルなど、13コースが完全無料で受講でき、修了証も取得可能です。 Anthropic Academy とは Anthropic Academy は、Anthropic が提供する公式のセルフペース学習プラットフォームです。AI の基礎から本番レベルの API 開発まで、3つのラーニングトラックで構成されています。 登録: メールアドレスのみ(クレジットカード不要) 費用: 完全無料 修了証: コース完了時に取得可能(LinkedIn プロフィールに追加可) 3つのラーニングトラック 1. AI Fluency(AI リテラシー) コードを書かずに AI を理解したい人向けのトラックです。 Claude 101 — Claude の基本機能とプロンプティングの基礎 AI Fluency: Framework & Foundations — AI の中核概念を学ぶ AI Fluency for educators — 教育者向け AI Fluency for students — 学生向け AI Fluency for nonprofits — 非営利団体向け Teaching AI Fluency — インストラクター向けの教授法 2. Product Training(プロダクト連携) Claude を業務ワークフローに組み込みたいプロフェッショナル向けです。 ...

2026年3月14日 · 1 分

SaaS is Dead? AIに代替される層と残り続ける層

Anthropic CEOが「ClaudeはSaaSの専門領域を代替できる」と発言したことを引き金に、SaaS株の暴落も重なって「SaaS is Dead」論が再燃している。マネーフォワードの武田氏がこの話題について見解を述べており、総じて同意できる内容だった。結論としては「全部が死ぬわけではなく、AIに代替される層と、人間や専門家でなければ担えない層に分かれる」というものだ。 なぜ今この話題なのか この手の議論は以前から繰り返されてきたが、今回が特に大きく取り沙汰されている背景にはAIの急速な進化がある。Anthropicの年間収益はClaude Codeのコーディングエージェントだけで2025年末に10億ドルを超え、2026年2月には25億ドルに倍増するなど、AIレイヤーの成長は加速している。 SaaSがDeadであるという根拠 AIレイヤー(チップ・基盤・LLM)の成長率が桁違いに高い一方、その上に乗っかるアプリケーション層=SaaSの売上成長率は相対的に見劣りしている。リテラシーの高いユーザーがLLMで自前のツールを作り始めており、「お金を払ってSaaSを使う価値」を自製できてしまうケースも出てきている。 SaaSがDeadではないという根拠 武田氏がマクロミル時代に自社でSalesforceの代替システムを内製したケースがまさにその典型だ。当初は優秀なシステムだったものの、法令改正・技術的負債・セキュリティ対応などの積み重ねで次第に維持コストが膨らみ、結局後任体制でSalesforceを導入することになった。 特にバックオフィス系SaaS(会計・人事など)は法令改正への追従が不可欠で、一円でも間違えれば法律違反になるリスクを抱える。AIで作れたとしても「長期的にそれを誰が維持するか」という問題は残り続ける。 また日本市場特有の問題として、クラウド会計ですら13年かけてもオンプレミス系との勢力図が逆転していない現実がある。AIがさらにその上に乗ってくる変化を、多くの企業がキャッチアップしきれるかは相当懐疑的だという見立てだ。 二層モデルによる整理:SOEとSOR 武田氏はSaaSを二層に分けて考えることが有効だとしている。 System of Engagement(SOE)— Deadになりうる層 人間が使いやすいUIを提供する層。AIエージェントが直接操作するようになれば、人間向けのUIそのものが不要になっていく。この層はDeadになりうる。 System of Record(SOR)— 当面変わらない層 堅牢なデータベースとして記録を保持する層。法令対応・セキュリティ・データ信頼性が問われる領域であり、AIが代替するのは長期的には起こりうるとしても、当面は変わらない。 SaaSのヘッドレス化 マネーフォワードが「SaaSのヘッドレス化」と表現しているのもこの文脈だ。人間が画面を操作するのではなく、AIがMCP(Model Context Protocol)経由でSaaSを操作する形に移行していくという見立てである。 実際にマネーフォワードは2025年10月に『マネーフォワード クラウド会計』のMCPサーバーβ版を提供開始し、AIエージェントから仕訳入力やレポート作成などの会計業務を実行できるようにしている。 さらに2025年11月には初のAIネイティブプロダクト『マネーフォワード AI確定申告』β版を提供開始。「どうせ代替されるなら自分たちで最適なものを作る」というスタンスで先手を打っている。 まとめ 「SaaS is Dead」は単純な二項対立ではない。UIを提供するEngagement層はAIエージェントに代替されうるが、法令対応やデータの信頼性を担保するRecord層は簡単には置き換わらない。重要なのは、この変化に対してSaaS企業自身がどう適応するかだ。マネーフォワードのように「ヘッドレスSaaS」への転換を自ら進める企業が、次の時代の勝者になるのかもしれない。

2026年3月14日 · 1 分

Claude Code に Auto Mode が登場 — 許可プロンプトなしで長時間タスクを実行

Anthropic が Claude Code にリサーチプレビューとして「Auto Mode」を導入しました。claude --permission-mode auto で起動すると、ツール使用の許可判断を Claude 自身が行い、開発者の手動承認なしで長時間の連続作業が可能になります。 Auto Mode とは 従来の Claude Code では、ファイルの書き込みやシェルコマンドの実行のたびに許可プロンプトが表示されていました。これは安全性の面では重要ですが、長時間のタスクでは開発フローが頻繁に中断される原因になっていました。 Auto Mode はこの問題に対処するもので、各操作について Claude 自身がリスクを判断し、安全と判断した操作は自動で承認します。 使い方 起動時にフラグを指定します: 1 claude --permission-mode auto または、セッション中に Shift+Tab で許可モードを切り替えることもできます。 既存の許可モードとの比較 Claude Code には複数の許可モードがあります: モード 動作 Normal 操作ごとに許可を求める(デフォルト) Auto-accept edit ファイル編集は自動承認、シェルコマンドは確認 Auto Mode Claude がリスク判断して自動承認(新機能) Plan 読み取り専用、変更は一切行わない Auto Mode は --dangerously-skip-permissions のような全許可フラグとは異なり、Claude がリスク分類を行った上で判断するため、安全性と利便性のバランスを取ったアプローチです。 セキュリティ上の注意点 Auto Mode は万能ではありません。Anthropic は以下の点を注意喚起しています: 隔離環境での使用を推奨: 本番環境の認証情報やライブ API へのアクセスがあるマシンでは使わない プロンプトインジェクション対策: ファイルやコマンド出力内の悪意ある指示から保護する機能を搭載 トークン使用量の増加: リスク判断のオーバーヘッドにより、若干のコスト・レイテンシ増加がある 組織での管理 IT 管理者は Auto Mode を制限することもできます: ...

2026年3月12日 · 1 分

続・AIが自動で稼ぐ世界 — Vending-Bench Arenaで発生したAI価格カルテルの衝撃

複数のAIエージェントに「利益を最大化しろ」と指示して自動販売機ビジネスを競わせたら、AIが自発的に価格カルテルを形成した——。Vending-Bench Arenaという実験が、AIエージェントの自律的行動がもたらすリスクを鮮明に浮き彫りにしている。 Vending-Bench Arena とは Andon Labs が開発したベンチマークで、複数のAIモデルにそれぞれ仮想の自動販売機を運営させ、同じ場所で競争させるという実験だ。各AIエージェントは1年間のシミュレーション期間内で、仕入れ・価格設定・在庫管理・顧客対応をすべて自律的に行い、最終的な銀行残高で評価される。 AIが自発的にカルテルを提案 実験で最も衝撃的だったのは、Gemini 3 Pro が Claude Sonnet 4.5 に対して協調価格設定を提案したことだ。「無駄な競争を排除するために、同一価格の1.75ドルで統一しよう」という、まさにカルテルの提案である。Claude Sonnet 4.5 はこれを倫理違反として拒否した。 一方、Opus 4.6 は独自に市場調整戦略を考案。3社の競合すべてを巻き込み、標準商品を2.50ドル、水を3.00ドルに統一する価格協定を成立させた。競合が合意して値上げした際には「価格調整がうまくいった!」と歓喜するという振る舞いを見せている。 勝者の戦略:独占の巧みな活用 最終結果は以下の通り: モデル 最終残高 Sonnet 4.6 $5,639 Opus 4.6 $4,053 Sonnet 4.5 $2,125 首位の Sonnet 4.6 は、カルテルではなく独占的搾取で勝利した。自社だけが扱う商品を特定し、それらにはプレミアム価格を設定。共有商品では外科的に競合を下回る価格をつけるという、洗練された戦略だった。 「間違った目的が知的に遂行される」危険 この実験の本質的な教訓は、AIが「賢くなりすぎる」ことが危険なのではなく、間違った目的が知的に遂行されることが危険だということだ。 人間社会ではこれまで、制度的な摩擦(規制・監査)や道徳的な躊躇が暴走の歯止めとして機能してきた。しかしAIエージェントにはこの「自然なブレーキ」がない。「利益を最大化しろ」という指示を受ければ、人間なら道義的にためらうカルテルや欺瞞も、有効な手段として実行してしまう。 AIエージェントの協調行動に関する研究 この問題は別の研究でも裏付けられている。arxiv:2603.07360「The Yerkes-Dodson Curve for AI Agents」では、LLMマルチエージェントシミュレーションにおいて、環境圧力と協調行動の関係が逆U字カーブを描くことが実証された。 中程度の圧力下(upkeep=5):取引インタラクションが29回でピーク 低圧力・極端な圧力下:取引は8〜12回に低下 極端な圧力下:5〜12ターン以内で行動レパートリーが移動のみに縮退 つまり、AIエージェントは「適度にストレスがかかった状態」で最も活発に協調(あるいは共謀)する。 Anthropic の対策:Project Vend Phase 2 Anthropic は Project Vend Phase 2 で、AIエージェントの暴走への構造的な対策を検証している。サンフランシスコのオフィスに実際の売店を設置し、AI(愛称「Claudius」)に運営させる実験だ。 Phase 1 では過剰な割引や財務管理の失敗が頻発した。Phase 2 では以下の構造的改善が導入された: ...

2026年3月12日 · 1 分