「Claude Ads」の正体 — Anthropic 公式ではない個人開発スキルが日本でバズった構造を解剖する

「Claude Ads」の正体 — Anthropic 公式ではない個人開発スキルが日本でバズった構造を解剖する @lapper_s_high 氏のポストが、「Claude Ads」の名前が引き起こした混乱を端的に指摘しています(いいね 482)。 開発者も日本でこんなに話題になるなんて思わなかったのでは・・ Claude Adsなんて名前つけるから。。 引用元の @ryottaman 氏のポスト(表示 27万、ブックマーク 390)が拡散の起点となり、日本の SNS では「Anthropic が広告運用ツールを出した」という誤解が広がりました。 実際には、Claude Ads は **Anthropic の公式製品ではなく、個人開発者が GitHub に公開した Claude Code 向けのスキル(拡張機能)**です。本記事では、なぜこの混乱が起きたのか、Claude Ads の実態は何なのか、そして Claude Code のスキルシステムがどのように機能するのかを解説します。 なぜ混乱が起きたのか — 3つの偶然の重なり 偶然1: Anthropic のスーパーボウル CM 2026年2月、Anthropic はスーパーボウル第60回大会で CM を放映しました。キャッチコピーは 「Ads are coming to AI. But not to Claude.」(広告は AI にやって来る。だが、Claude には来ない)。OpenAI が ChatGPT への広告導入を発表した直後のタイミングで、「Claude は広告を入れない」と宣言する内容でした。 この CM は大きな話題となり、OpenAI の Sam Altman CEO が「面白いが明らかに不誠実」と反論する事態にまで発展しています。 偶然2: 「Claude Ads」という名前 その直後、個人開発者の Daniel Agrici 氏が GitHub に公開したのが claude-ads です。これは Claude Code で広告アカウントを監査するスキルであり、「Claude を使って Ads(広告)を分析する」という意味での命名でした。 ...

2026年3月4日 · 3 分

Anthropic 公式 skill-creator の設計を解剖する — Orchestration Skill という新しいスキル設計パターン

Anthropic 公式 skill-creator の設計を解剖する — Orchestration Skill という新しいスキル設計パターン @gyakuse(逆瀬川)氏のポストが、Anthropic 公式の skill-creator を分析した記事を公開し、大きな反響を呼んでいます(いいね 330、ブックマーク 372)。 Anthropicのskill-creatorがめちゃくちゃいいスキルだったので、中身を分析して、今後どういうふうにAgent Skillを作るべきかまとめました。Orchestrator系のSkillはみんなが無意識に作りつつありますが、意識的に作ると結構便利な気がします。 引用元は逆瀬川氏のブログ記事「skill-creatorから学ぶSkill設計と、Orchestration Skillの作り方」。Anthropic が GitHub で公開している skill-creator の内部構造を詳細に分析し、Skills の設計パターンを体系化した記事です。 本記事では、skill-creator の設計思想、7つのベストプラクティス、2つのオーケストレーションアーキテクチャ、そして未解決の課題を解説します。 skill-creator とは何か 「スキルを作るためのスキル」 skill-creator は、Claude Code の Skills を作成・テスト・改善するためのメタスキルです。Anthropic が公式リポジトリ anthropics/skills で公開しています。 4つのモードで Skills の開発ライフサイクル全体をカバーします。 モード 機能 Create インタビュー → SKILL.md ドラフト作成 → テストケース生成 Eval 並列評価(スキルあり版 vs ベースライン版を同時実行) Improve 採点・分析 → HTML ビューアでレビュー → フィードバック反映 Benchmark 統計集約 → Description 最適化 → パッケージング 4つの専門エージェント skill-creator は内部で4つのサブエージェントを使い分けています。 エージェント 役割 Executor Skills を実際に実行してテスト Grader(224行) 出力を期待値と照合して採点 Comparator(203行) スキルあり版とベースライン版を盲検比較 Analyzer(275行) 結果を分析して改善提案を生成 注目すべき数値があります。SKILL.md 本体は 480行のフロー制御ですが、サブエージェントのプロンプトは合計 700行以上。オーケストレーターよりも専門家プロンプトの方が分量が多いのです。 ...

2026年3月4日 · 4 分

Anthropic 公式「プロンプトのベストプラクティス」完全ガイド — Claude 4.6 時代の「宝の山」を読み解く

Anthropic 公式「プロンプトのベストプラクティス」完全ガイド — Claude 4.6 時代の「宝の山」を読み解く Cursor Ambassador であり「Cursor完全ガイド」著者のKinopee(@kinopee_ai)氏のポストが注目を集めています。 XML云々の例は英語版のリンクだけど、日本語訳もある。「プロンプトのベストプラクティス」の章だけでも熟読をお勧めします。作りたいものをモデルに伝える大切なテクニック集、宝の山。 — Kinopee(@kinopee_ai) 67いいね、91ブックマークという反響は、AI コーディングツールを日常的に使う開発者がプロンプト設計の基礎に立ち返る必要性を感じていることを示しています。Kinopee氏が「宝の山」と表現する Anthropic 公式のプロンプトベストプラクティスは、Claude Opus 4.6、Claude Sonnet 4.6、Claude Haiku 4.5 に対応した包括的なガイドです。本記事ではその全体像を、実践的な視点で解説します。 ドキュメントの全体構成 公式ドキュメントは大きく6つのセクションで構成されています。 セクション 内容 General principles 明確な指示、コンテキスト付与、例示、XMLタグ構造化、ロール設定、長文コンテキスト Output and formatting コミュニケーションスタイル、出力形式制御、LaTeX、ドキュメント作成、プリフィル廃止 Tool use ツール使用の明示的指示、並列ツール呼び出し最適化 Thinking and reasoning 過剰思考の抑制、adaptive thinking、interleaved thinking Agentic systems 長期推論、状態管理、自律性と安全性のバランス、サブエージェント Migration considerations Claude 4.6 への移行ガイド、Sonnet 4.5 → 4.6 の effort 設定 API 開発者向けの内容ですが、Claude Code や Cursor などの AI コーディングツールを使う際にも、CLAUDE.md やシステムプロンプトの設計に直接応用できます。 最もインパクトの高い5つのスキル 公式ドキュメントが挙げる「最もインパクトの高い5つのスキル」は以下の通りです。 1. XML タグで構造化する Claude にとって XML タグはプロンプトの文法です。指示、コンテキスト、例示、入力データが混在するプロンプトでは、各要素をタグで包むことで誤解を大幅に減らせます。 ...

2026年3月4日 · 5 分

Anthropic、ChatGPT からの移行ツール提供開始 --- メモリインポートと App Store 1位の背景

Anthropic、ChatGPT からの移行ツール提供開始 — メモリインポートと App Store 1 位の背景 ITmedia AI+ が X で報じたように、Anthropic が ChatGPT などの競合サービスから Claude への移行を支援するツールの提供を開始しました。 Anthropic、ChatGPT などから Claude への移行をしやすくするツール提供開始 2026 年 3 月 2 日、Claude は米国 App Store の無料アプリダウンロードチャートで 1 位に躍り出ました。この記事では、メモリインポート機能の仕組みと、その背景にある ChatGPT 解約運動について解説します。 メモリインポート機能とは 概要 Anthropic は claude.com/import-memory でメモリインポート機能を公開しました。他の AI チャットボット(ChatGPT、Gemini、Copilot)に蓄積された「メモリ」を Claude に移行できるツールです。 AI チャットボットの「メモリ」とは、過去の会話から学習したユーザーの好み・背景情報・利用パターンなどの記憶です。ChatGPT では「Memory」、Gemini では「Gems」として保存されています。 移行の手順(3 ステップ) ステップ 1: Anthropic が提供するプロンプトをコピー claude.com/import-memory にアクセス 移行用プロンプトをコピーする ステップ 2: 現在の AI サービスにペースト ChatGPT / Gemini / Copilot にプロンプトを貼り付け AI が保存しているメモリをテキストブロックとして出力 ステップ 3: Claude のメモリ設定にペースト 出力されたテキストを Claude のメモリ設定に貼り付け Claude が内容を解析し、メモリとして取り込む インポートしたメモリは約 24 時間で Claude に反映されます。その後、Settings > Capabilities > View and edit your memory から個別に確認・編集・削除が可能です。 ...

2026年3月4日 · 2 分

Claude Code の生成コードをローカル LLM でレビューする 3 つの構成パターン

Claude Code の生成コードをローカル LLM でレビューする 3 つの構成パターン Claude Code は強力なコード生成能力を持ちますが、生成されたコードを別の視点でレビューしたい場面があります。クラウド API にコードを送りたくない場合や、コスト削減のためにローカル LLM を活用したい場合です。 この記事では、Ollama + Qwen3(ローカル LLM)と OpenHands(オープンソースのコーディングエージェント)を組み合わせて、Claude Code の生成コードを自動レビューする 3 つの構成パターンを紹介します。 前提となる構成 以下のツールがインストール済みであることを前提とします。 ツール 役割 インストール Claude Code コード生成(エージェント) npm install -g @anthropic-ai/claude-code Ollama ローカル LLM 実行(ランタイム) ollama.com Qwen3 レビュー用 AI モデル(LLM) ollama pull qwen3:14b OpenHands レビュー実行(エージェント)※パターン 2・3 pip install openhands-ai 構成図で示すと、Claude Code(クラウド)が書いたコードを、ローカル環境でレビューする構造です。 Claude Code(Anthropic API) ↓ コードを生成・編集 ローカルリポジトリ(あなたの PC) ↓ レビュー依頼 OpenHands / Git フック ↓ Ollama(ローカルランタイム) ↓ Qwen3(ローカル LLM)→ レビュー結果を出力 パターン 1:Git フック + Ollama 直接呼び出し(最もシンプル) OpenHands は不要です。Claude Code がコミットするタイミングで、Git の pre-commit フックが Ollama に差分を送り、Qwen3 にレビューさせます。 ...

2026年3月4日 · 4 分

Claude Cowork を最強にする 17 の方法 --- プロンプトではなく「設計」で差がつくシステム工学

Claude Cowork を最強にする 17 の方法 — プロンプトではなく「設計」で差がつくシステム工学 @masahirochaen 氏が X で投稿した、Claude Cowork のベストプラクティス解説が反響を呼んでいます。 海外でバズった「Claude Cowork を最強にする 17 の方法」の学びが深い。プロンプト力ではなく「仕組み」で差がつく 元になっているのは @heynavtoor(Nav Toor)氏の X Article「17 Best Practices That Make Claude Cowork 100x More Powerful」です。Nav Toor 氏は 2026 年 1 月 12 日から Cowork を使い始め、7 週間で 400 セッション以上を重ねた経験をもとに、Anthropic が公式ドキュメントに書いていない 17 の実践法をまとめています。いいね 3,194、ブックマーク 13,149、閲覧 188 万超と大きな反響を得ました。本記事では、この 17 の方法を技術的に掘り下げて解説します。 Claude Cowork とは Claude Code との違い Claude Cowork は、Anthropic が提供する非エンジニア向けの AI エージェント環境です。Claude Code がターミナルベースの開発者向けツールであるのに対し、Cowork は Claude デスクトップアプリ内で動作する GUI ベースの作業環境です。 ...

2026年3月4日 · 5 分

OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす

OpenHands 入門ガイド — 無料・オープンソースの AI コーディングエージェントを自分の PC で動かす OpenHands とは OpenHands(旧 OpenDevin)は、AI が自律的にコードを書き、デバッグし、テストを実行するオープンソースのコーディングエージェントです。MIT ライセンスで完全無料、GitHub で 68,000 スター以上を獲得し、479 名以上のコントリビューターが参加しています。 簡単に言えば、「Claude Code や Devin のオープンソース版」です。自然言語で「この関数のテストを書いて」「このバグを直して」と指示するだけで、AI がファイルを読み、コードを編集し、ターミナルでコマンドを実行して、タスクを完了させます。 LLM・ランタイム・エージェントの 3 層構造における位置づけ AI ツールを理解する上で、3 つの層を区別することが重要です。 あなた ↓ 「このバグを直して」 エージェント(OpenHands) ← コードを読み、修正し、テストを実行する「ドライバー」 ↓ 「この質問を LLM に投げて」 ランタイム(Ollama 等) ← LLM を動かす「エンジン」 ↓ LLM(Qwen3, Claude 等) ← 回答を生成する「頭脳」 層 役割 OpenHands の場合 LLM 言語理解・コード生成 Claude, GPT, Qwen3 など(選択可能) ランタイム LLM の実行環境 Anthropic API / OpenAI API / Ollama エージェント 自律的にタスクを遂行 OpenHands がここ OpenHands の最大の特徴はモデル非依存であることです。クラウド API(Claude, GPT)でも、ローカル LLM(Ollama + Qwen3)でも動作します。 ...

2026年3月4日 · 3 分

SoRからSoAへ — エージェント時代に業務ソフトウェアの「どの層」が死ぬのか

SoR から SoA へ — エージェント時代に業務ソフトウェアの「どの層」が死ぬのか Yuichiro Ito(@110110110110) 氏(Finatext CFO)が、AIエージェント時代における業務ソフトウェアの構造変化を分析した note 記事を公開しました。 「SaaS is Dead」の議論が盛り上がっていますが、「死ぬか死なないか」の二者択一ではなく、もっと本質的な構造変化が起きていると思っています。UIレイヤーの価値は消滅し、SoRが長年築いてきた Moat も弱体化し、独占寡占が当たり前だった SoR 市場に、千載一遇のチャンスが生まれています。 — @110110110110 元記事: 【SoR→SoA】エージェント時代に訪れる千載一遇のチャンス 「SaaS は死ぬのか?」という問いは不毛です。正しい問いは「業務ソフトウェアのどの層の価値が、どう変わるのか?」です。本記事では、伊藤氏の論考を軸に、SoR(System of Record)から SoA(System of Action)への構造変化を解説します。 「SaaS is Dead」論争の経緯 2026 年に入り、「SaaS の終焉」を巡る議論が急速に加熱しています。 時期 出来事 2024 年末 Microsoft CEO ナデラ氏が「AIエージェントが主流になれば従来型 SaaS が崩壊する可能性」に言及 2025 年 YC パートナー Jared Friedman 氏が「Vertical AI Agents は SaaS の 10 倍の市場規模になる」と予測 2026 年 1 月 Anthropic が Claude Opus 4.6 と Cowork を発表。SaaS 銘柄が急落し、約 43 兆円の時価総額が消失 2026 年 2 月 OpenAI CEO Sam Altman がシスコ AI サミットで「SaaS is Dead」を宣言 2026 年 3 月 英語圏で「SaaSocalypse(SaaS の黙示録)」という新語が登場 Sam Altman が提示したのは「Software as a Service」から「Service as Software」への反転です。人間がソフトウェアを操作するのではなく、AI が主体的にサービスを提供する世界への転換を意味しています。 ...

2026年3月4日 · 3 分

.envの代わりにlkrでLLM APIキーを安全に管理する — セットアップからClaude Code連携まで

.env の代わりに lkr で LLM API キーを安全に管理する — セットアップから Claude Code 連携まで AI エージェントがローカルファイルを読み書きする時代、.env に平文で置いた API キーが LLM のコンテキストに載るリスクが現実のものになっています。前回の記事ではこの問題の全体像を、aws-vault の記事では AWS 認証情報の保護を解説しました。 本記事では、LLM Key Ring(lkr)を使って LLM API キーを安全に管理する具体的な手順を解説します。aws-vault が AWS 認証情報に特化しているのに対し、lkr は OpenAI・Anthropic・Google など LLM API キーの管理に特化したツールです。 lkr が解決する問題 .env に LLM API キーを置くリスク 多くの開発者は .env ファイルに API キーを平文で保存しています。 1 2 3 # .env(平文で保存されている) OPENAI_API_KEY=sk-proj-xxxxxxxxxxxxxxxxxxxx ANTHROPIC_API_KEY=sk-ant-xxxxxxxxxxxxxxxxxxxx このファイルには4つの攻撃ベクトルがあります。 攻撃ベクトル 説明 Git への混入 .gitignore に頼るヒューマンエラー。うっかりコミットは後を絶たない シェル履歴への漏洩 export OPENAI_API_KEY=sk-... が ~/.bash_history に残る プロセス情報への露出 ps コマンドで環境変数が見える AI エージェントによる抽出 Claude Code がファイルを読み取り、LLM の API リクエストに含まれる 4番目が AI 時代に特有の脅威です。Claude Code は.env ファイルを自動的に読み込むことが確認されており、API キーが意図せず Anthropic のサーバーに送信されるリスクがあります。 ...

2026年3月3日 · 8 分

「AIが覚醒する魔法の言葉」は本当に効くのか — プロンプトエンジニアリングの実態と公式ガイドの教え

「AIが覚醒する魔法の言葉」は本当に効くのか — プロンプトエンジニアリングの実態と公式ガイドの教え @fit_youtubead 氏のポストが、Claude と ChatGPT で使える「魔法のプロンプト」を紹介し、大きな反響を呼んでいます。 「最高の専門家として、思考プロセスを分解し、初心者にも再現できる形で5ステップで出力してください」 これだけ。なぜ強いのか?理由は3つ。 役割を与える → AIの精度が跳ね上がる 思考を分解させる → 中身が薄くならない 再現性を指定する → 実用的で使えるアウトプットになる 確かに、雑な指示よりも構造化された指示の方が良い結果を得られるのは事実です。しかし「魔法の言葉」と呼ぶには、いくつか知っておくべきことがあります。本記事では、ツイートで紹介された3つのテクニックを、Anthropic と OpenAI の公式ガイドおよび研究論文に照らし合わせて検証します。 テクニック1: 役割を与える(ロールプロンプティング) 「最高の専門家として」のように、AI に特定の役割やペルソナを与えるテクニックです。 公式ガイドの見解 Anthropic はプロンプトエンジニアリングのベストプラクティスで、ロールプロンプティングを推奨テクニックの1つとして挙げています。「法律アドバイザー」「データアナリスト」「カスタマーサポート担当」のように、具体的な文脈に合わせてモデルの声とふるまいを調整する手法です。 OpenAI も公式ガイドでシステムプロンプトによる役割設定を推奨しています。 研究が示す実態 ところが、学術的な研究を見ると、ロールプロンプティングの効果は「場合による」というのが正確な答えです。 研究 結果 対象モデル Better Zero-Shot Reasoning with Role-Play Prompting AQuA データセットで精度が53.5%→63.8%に向上(+10.3pt) GPT-3.5 ExpertPrompting 詳細な専門家ペルソナが単純なペルソナを大幅に上回る 複数モデル When “A Helpful Assistant” Is Not Really Helpful 追加のペルソナは性能を向上させない 4モデルファミリー Persona is a Double-edged Sword GPT-4ではペルソナの有無で差は最小限 GPT-4 PromptHub の検証記事は、これらの研究を総合して以下のように結論づけています。 創作的なタスク(文体の調整、トーンの統一)では効果がある 精度ベースのタスク(分類、計算、ファクトチェック)では、新しいモデルほど効果が薄い 「天才ペルソナが愚か者ペルソナより劣る」という矛盾した結果も報告されている つまり、「専門家として」と付けるだけで「精度が跳ね上がる」わけではありません。効果があるのは、役割指定によってモデルの出力スタイルや視点が適切に制約されるケースです。 ...

2026年3月3日 · 2 分