Claude Code 作者直伝のワークフロー設計術 — 計画モード・CLAUDE.md・検証ループで品質を上げる

Claude Code の作者自身が、自分のセットアップと使い方を 30 分にわたって公開した動画が話題になっている。東大の Claude Code 研究グループがその動画を解説するツイートを投稿し、注目を集めている。「プロンプトの巧さより設計が全てを決める」という主張が多くの共感を呼んでいるためだ。本記事では、そのツイートで紹介された 3 つのテクニックを解説する。 Claude Code の品質差が生まれる本当の理由 @sairahul1 のツイートでは、この動画を次のように紹介している。 The creator of Claude Code teaches more about vibe-coding in 30 minutes than most tutorials do in hours. Save this — it’ll change how you build forever. 多くのチュートリアルより深く「vibe-coding(感覚的・直感的な AI コーディング)」を学べると評されたこの動画は、88 万回以上の閲覧を記録している。 @ClaudeCode_UT(東大ClaudeCode研究所)はその内容をこう要約する。 Claude Code の品質差は「プロンプトの巧さ」じゃない 「計画→実行→検証の設計」で全部決まる 多くのユーザーが「良いプロンプトを書く技術」を磨こうとする一方、実は重要なのはワークフロー設計だという指摘だ。 3 つの核心テクニック 1. 計画モード(Plan Mode)で設計 → 自動実行で「1回で完了」 Claude Code には実装に入る前に計画だけを立てる「計画モード(Plan Mode)」がある。このモードを使って事前に実装方針を固めてから自動実行に切り替えることで、手戻りなく「1回で完了」を実現できる。 1 2 3 /plan ← 計画モードに入る (設計・方針を確認する) Shift+Tab ← 通常実行モードへ切り替え 一発で完了させる鍵は「実行前の設計品質」にある。計画モードで Claude にタスクの全体像と制約を正確に把握させ、問題点を先に洗い出すことが重要だ。 ...

2026年4月27日 · 1 分

コードを1行も読ませずに AI で脆弱性を100%特定する — AST Deep Structure Map アプローチ(理論編)

本記事では、Python の AST を活用して AI による脆弱性検出を効率化する手法を紹介します。Qiita の @PythonHaru 氏が公開した記事「コードを1行も読ませずに、AIに脆弱性を100%特定させる方法(理論編)」は 530 いいね・471 ブックマークを獲得し、X(旧 Twitter)でも急速に拡散しました。 この記事のポイント AI(LLM)に生のソースコードを読ませるのは、効率の悪い「情報の暴力」(情報量が多すぎて AI が処理しきれない状態) Python の ast モジュールで生成した Deep Structure Map(コードの骨格図)こそ、AI の推論能力を最大化する データの流入から危険地帯への到達をグラフ理論で定義すれば、理論上 脆弱性は100%特定可能 AIコードレビューの限界 GitHub Copilot や ChatGPT にコードをそのまま貼り付けて「脆弱性ある?」と質問する手法は今や一般的ですが、大規模プロジェクトでは2つの致命的な欠陥が生じます。 コンテキストの霧(AI が変数の出自を追跡できなくなる状態)— 数千行のコードを前にした AI は「どの変数がどこから来たか」を見失い、ハルシネーションを起こしやすくなる トークンの浪費 — コードの「書き方」というノイズに注目してしまい、肝心の「ロジックの破綻」に辿り着く前にリソースを使い果たす そこで著者は、AI にコードを1行も読ませるのをやめました。代わりに渡したのが、自作の解析コードが抽出した「コードの設計図(Deep Structure Map)」です。 Deep Structure Map:AI に「骨格」だけを渡す ソースコードは人間が読むための「肉体」ですが、AI が論理推論に必要なのは純粋な「神経系(ロジック)」です。Python の ast モジュールを使い、コードを以下の構造データへ変換します。 DeepAnalyzer クラス(ast.NodeVisitor を継承) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 import ast class DeepAnalyzer(ast.NodeVisitor): def __init__(self): self.classes = [] self.functions = [] self.variables = [] self.scope_stack = [] self.call_graph = {} def visit_ClassDef(self, node): self.classes.append(node.name) self.generic_visit(node) def visit_Call(self, node): # 関数呼び出しをコールグラフとして記録 self.generic_visit(node) ast.NodeVisitor を継承した DeepAnalyzer がコード全体を走査し、クラス・関数・変数のスコープ情報とコールグラフを収集します。AI にはこの「関係性の結晶」だけをインプットします。 ...

2026年4月27日 · 1 分

パン屋がAI(Gemini)と500時間かけて作ったテイクアウト予約管理システムを無料公開

福島県相馬市のパン屋「小麦の奴隷 相馬店」のオーナーが、コード経験ゼロから バイブコーディング(AI に自然言語で話しかけながらシステムを作り上げる開発スタイル)で「テイクアウト予約管理システム」を開発し、無料公開しました。Google Gemini と 500 時間かけて作り上げたこのシステムは、Google スプレッドシート + Google Apps Script(GAS)で動作し、初期費用・月額費用ともに 0 円です。 作ったのは「パン屋」 毎朝パンを焼き、接客をこなしながら、ずっと頭の片隅にあった課題——「予約管理、もっと楽にできないか」。 電話での注文受付や手書きのメモには限界があります。大手の予約管理サービスを使うと月額費用がかかり、小さな街のパン屋には導入ハードルが高い。そこでオーナーが選んだのが、Gemini と一緒に自分で作るという選択でした。 バイブコーディング(Vibe Coding)とは バイブコーディング(Vibe Coding)とは、AI に自然言語で「こういう機能がほしい」と伝え、生成されたコードをそのまま受け入れながら開発を進めるスタイルです。OpenAI 共同創業者の Andrej Karpathy が提唱した概念で、「コードの存在を忘れ、AI に任せきる」ことが核心にあります。従来のプログラミングのように構文を覚える必要はなく、「何をしたいか」を伝えることに集中できます。 このシステムでは: Gemini に「こういう動作をさせたい」と日本語で依頼 Gemini がコードを生成 GAS にコードを貼り付けて動作確認 うまく動かなければ Gemini にフィードバックして修正 1〜4 を繰り返す 500 時間という数字は、この試行錯誤の積み重ねです。非エンジニアがゼロから実用システムを作り上げた記録でもあります。 システムの構成 シンプルな構成の理由は明確です——すでに Google アカウントを持っていれば、追加のサービス契約なしにすぐ使える環境が整っています。 何ができるのか このシステムが解決するのは「注文受付とピッキング作業を楽にしたい」という、現場の本音から生まれた課題です。 テイクアウト注文の受付管理 注文一覧の可視化とピッキング作業の効率化 電話・手書きメモからの脱却 一方で、大手有料サービスのような機能(売上・在庫管理、オンライン決済など)は備えていません。「現場で本当に必要なこと」に絞って設計されています。 導入コストと方法 項目 内容 初期費用 0 円 月額費用 0 円 必要なもの Google アカウントのみ 導入時間 約 1 分 Google スプレッドシートの拡張として動作するため、特別なサーバーやインフラは不要です。 ...

2026年4月27日 · 1 分

CAMPFIRE 個人情報漏洩から学ぶ — GitHub アカウント侵害が招く CI/CD セキュリティリスク

クラウドファンディングプラットフォーム CAMPFIRE が、GitHub アカウントへの不正アクセスを起点に最大 22 万 5,846 件の個人情報が漏洩した可能性があると発表しました(2026 年 4 月 24 日)。単なる「パスワード流出」ではなく、CD パイプラインを悪用してインフラを乗っ取るという、現代の DevOps が抱えるリスクを象徴するインシデントです。本記事ではエンジニア視点で攻撃経路を分析し、再発防止策を考えます。 インシデントの経緯 日時 出来事 2026-04-02 22:50 GitHub アカウントへの不正アクセスを検知。一部ソースコードが閲覧された可能性(初報) 2026-04-14 第二報:社員・取引先情報の閲覧可能状態を確認 2026-04-22 第三報:顧客情報管理システムへの不正アクセス痕跡を確認 2026-04-24 個人情報漏洩の可能性を正式発表(最大 22 万 5,846 件) 漏洩した可能性がある情報は以下のとおりです: プロジェクト実行者 12 万 929 件:氏名・住所・電話番号・口座情報など(2021 年 2 月以降) 支援者 13 万 155 件:氏名・住所・口座情報など(PayPal 決済、後払い、口座送金返金ユーザー) うち 8 万 2,465 件が口座情報を含む クレジットカード情報は対象外(CAMPFIRE 公式発表) 推定される攻撃経路 エンジニア向け技術解説として、@poly_soft(勝又健太)氏が X(旧 Twitter)で以下の攻撃チェーンを推察しています。この分析は公式発表を補完する形で、攻撃者が具体的にどう動いたかを示しています(以下はあくまで推定です)。 Step 1: CD 権限を持つ GitHub アカウントの侵害(推定) 攻撃者が最初に侵害したのは、単独で CD(継続的デプロイ)をトリガーできる権限を持つ GitHub アカウントであったと推定されます。 問題の設定として考えられるのは: ...

2026年4月25日 · 3 分

DeepSeek-V4 Preview — Claude Opus 4.6 匹敵・100万トークン対応のオープンソース LLM が無償公開

DeepSeek-AI が 2026 年 4 月 24 日、100 万トークンのコンテキスト長に対応したオープンソース AI モデル「DeepSeek-V4 Preview」を公開した。コーディング競技プラットフォーム Codeforces では GPT-5.4 を上回るレーティングを記録。コーディングベンチマークでは Claude Opus 4.6 にほぼ匹敵する性能を持ちながら MIT ライセンスで無償公開されるという、衝撃的なリリースとなった。 DeepSeek-V4 の概要 DeepSeek-V4 Preview は Pro と Flash の 2 バリアントで構成される。 モデル 総パラメータ数 推論時アクティブパラメータ数 DeepSeek-V4-Pro 1 兆 6,000 億 490 億 DeepSeek-V4-Flash 2,840 億 130 億 いずれも Mixture-of-Experts(MoE)アーキテクチャを採用しており、推論時には全パラメータの一部のみを活性化することで高い効率を実現している。 アーキテクチャの革新:ハイブリッドアテンション DeepSeek-V4 の技術的な目玉は「ハイブリッドアテンション機構」だ。トークン単位の圧縮と DSA(DeepSeek Sparse Attention) を組み合わせることで、前世代と比較して: 推論演算量を約 73% 削減 KV キャッシュサイズを約 90% 削減 これにより、100 万トークンという非常に長いコンテキストをより少ないリソースで扱えるようになった。実用上は長い会話履歴・大きなコードベース・長文ドキュメントを一度のプロンプトに収められるため、エージェント系ユースケースとの相性が良い。 ベンチマーク性能 Codeforces で GPT-5.4 超え コーディング競技プラットフォーム Codeforces でのレーティングは 3,206(V4-Pro)を記録し、GPT-5.4 の 3,168 を上回るスコアを達成した。コーディング能力においてオープンソースモデルとして最先端の水準に到達した形だ。 ...

2026年4月25日 · 1 分

Exa for Claude — Web・論文・企業情報を標準検索より高速・高精度に扱う MCP プラグイン

Claude に本格的な検索能力を付与する MCP サーバー「Exa for Claude」が注目を集めている。Web 検索・ドキュメント・企業/人物情報など多様なソースに対応し、標準の web_search より高速・高精度とされる。Claude Desktop や Claude Code を使う開発者向けに、導入手順と活用例をまとめる。 Exa とは Exa は「将来の検索」を構築するために設立された AI 研究ラボで、ニューラル検索エンジンを提供している。キーワードマッチングではなく意味的類似性を軸にした検索で、AI エージェントが使うことを前提に設計されている。 exa-labs/exa-mcp-server(GitHub スター 4,300 超)として OSS 公開されており、Claude・Cursor・VS Code などの MCP 対応ツールから利用できる。 提供される検索ツール Exa MCP サーバーが提供する主なツールは以下の通り。 ツール 状態 用途 web_search_exa 現行 リアルタイム Web 検索 web_search_advanced_exa 現行 高度な Web 検索(カテゴリ・日付範囲・ドメイン指定など) company_research_exa Deprecated 企業サイトをクロールして詳細情報を取得 linkedin_search_exa Deprecated LinkedIn での企業・人物検索 people_search_exa Deprecated 人物情報検索 crawling_exa Deprecated 指定 URL からコンテンツを抽出(→ web_fetch_exa へ移行) get_code_context_exa Deprecated コードコンテキストの取得(→ web_search_exa へ移行) deep_researcher_start / deep_researcher_check Deprecated 非同期ディープリサーチ web_search_advanced_exa では category パラメータで論文・ニュース・コードなど用途別に絞り込める。Deprecated ツールは現在も動作するが、将来的に web_search_advanced_exa に統合される方向で整理が進んでいる。 ...

2026年4月25日 · 2 分

AI 駆動開発の生産性向上、現場が静かに支払っているコストの話

「残業は減った、納期も守れている。なのになぜか疲れている」——Claude Code をはじめとする AI コーディング支援ツールが普及した現場で、こうした状況が静かに広がっています。Zenn に投稿された ShintaroAmaike さんの記事 が、この構造的な問題を鋭く分析しています。 生産性向上の便益は誰が受け取っているか AI 駆動開発で実装速度が上がったとき、その恩恵は組織内で均等に分配されるわけではありません。 立場 受け取る便益 経営・上層部 プロジェクトが早く回る、コスト効率が改善する PM・マネジメント 仕様変更のリカバリーコストが下がり、「とりあえず作ってみる」が選択肢になる 開発者 より多くのタスクをこなすことが前提化される。やり直しの回数が増える 便益の分配が偏ること自体はどの技術革新でも起きることです。問題は、偏りに気づかないまま運用が常態化してしまうことにあります。 「時間」では測れない疲労の蓄積 従来の働き方の問題は「長時間労働」という分かりやすい指標で捕捉できました。残業時間を見れば過度な負荷が可視化できたわけです。 しかし AI 駆動開発で起きている疲労は、労働時間に現れにくい性質を持っています。 表面上は問題がなさそうに見える: 実装時間そのものは短い 残業も発生しない しかし実際には負荷が増えている: 意思決定の回数が増えている タスクの切り替え頻度が上がっている やり直しによる心理的コストが蓄積している 結果として「忙しくないはずなのに疲れている」という、従来のフレームワークでは説明しにくい状態が生まれます。 これは精神論ではなく、意思決定疲労(decision fatigue) や 文脈切り替えコスト(context switching cost) として以前から知られている現象です。AI 駆動開発はこれらを構造的に増幅する性質を持っています。 構造的に起きる「やり直し」問題 AI による実装高速化の最も見えにくい副作用は、仕様を詰めるインセンティブが失われることです。 従来は仕様変更が実装の手戻りを意味し、納期や予算に直接響いたため、上流工程で仕様を固める動機が強く働きました。AI 駆動開発では実装コストが下がるため「作ってみてから考える」が現実的な選択肢になります。その結果、上流の不備を下流が吸収する構造が生まれやすくなります。 やり直しには性質の異なる 3 種類があります: 開発者自身の理解不足によるやり直し — スキルで減らせる、経験として積み上がる 本質的な複雑性の発見によるやり直し — 避けられない、価値のある発見 上流工程の不備に起因するやり直し — 繰り返されるが、学びにつながらない 3 つ目のやり直しが増えると、開発者の疲労は「働いた時間」ではなく「報われなさ」として蓄積します。何度こなしても同じパターンの問題が繰り返される労働は、量に関係なく人を消耗させます。 評価の問題: 貢献が可視化されにくくなる もう一つ重要な課題があります。開発者の貢献が従来の指標では測りにくくなっている点です。 実装が速いため「頑張った」が時間で示しにくい AI が書いたコードの比率が上がるほど、開発者の知的貢献がぼやける 仕様変更への柔軟な対応は曖昧に評価されがち 上流の不備を吸収した労力は貢献として認識されない 「AI でやれば速いのだから、速くて当たり前」という前提が広がると、評価されるハードルだけが上がり、評価される項目は減っていきます。放置すると、割に合わないと感じた開発者から静かに離脱が起きます。しかしその原因は、労働時間のような可視化された指標には現れません。 ...

2026年4月23日 · 1 分

Claude Code × Obsidian で「第二の脳」を構築する完全解説 — 海外1,240万views超え、AI記憶設計の新標準

海外 AI 活用シーンで Obsidian × Claude Code の組み合わせが爆発的な注目を集めている。6本の主要記事だけで合計 1,240万 views、ブックマーク数は 8万件超え。元 OpenAI 創設メンバーの Andrej Karpathy 氏が提唱し、Obsidian CEO の Steph Ango 氏自らが AI 連携スキルを GitHub で公開。ここまで業界の中心人物が動いたツール組み合わせは、近年なかった。 本記事は東大 ClaudeCode 研究所(@ClaudeCode_UT)が公開した解説記事「【決定版】ゼロから始めるClaudeCode × Obsidianの完全解説」をベースに、その要点をまとめる。 そもそも Obsidian とは何か Obsidian は、個人向けのローカル Markdown ノートアプリだ。2020 年公開、個人利用は無料で、Mac / Windows / Linux / iOS / Android に対応している。同じノート系の Notion や Evernote とは設計思想が根本的に異なる。 ノート本体は Markdown ファイル — 各ノートは .md としてディスク上に実ファイルで存在する。独自データベースに閉じ込められない。 Vault は OS のただのフォルダ — ノートを束ねる「Vault」は普通のディレクトリ。Git でも Dropbox でも iCloud でも、好きな仕組みで同期・バックアップできる。 双方向リンク [[ノート名]] — ノート同士をリンクで繋ぎ、知識をグラフ構造として可視化できる。Zettelkasten など既存 PKM 手法の基本機能を標準で備える。 ローカルファースト — 規定ではすべて自分の PC 内に保存。クラウドに置くかどうかは利用者が選ぶ。 豊富なプラグイン — 2,000 以上のコミュニティプラグインで、PDF 注釈・タスク管理・グラフ可視化まで拡張できる。 なぜ「AI × 記憶設計」の目的に最適なのか Obsidian のこれらの特徴は、Claude Code のようなファイルシステムを直接操作する AI エージェントと噛み合う。理由は3点ある。 ...

2026年4月23日 · 4 分

Claude Code で月50万円も夢じゃない? SNS自動化×AI アフィリエイトというブルーオーシャン

Claude Code をコーディング支援以外の収益化ツールとして活用する事例が注目されている。本記事では、SNS 複数アカウントの自動運用×アフィリエイト収益化という活用パターンの仕組み・先行者優位の背景・実践上の注意点を整理する。 X(旧Twitter)でこの話題に火をつけたのが、AI 自動化を実践するインフルエンサーの「なおき」さん(@Naoki_GPT)のツイートだ(以下、原文ママ)。 Claude Code、金稼ぎに特化させれば余裕で月50万は超えるのになあ。うちは10個のSNSアカを自動運用でフル稼働させてアフィで稼いでもらってる。AI自動化アフィの収益性エグすぎ。 フォロワー約1.6万人のこのアカウントが投稿した内容は数時間で37万回超のインプレッションを記録し、Claude Code の「収益化活用」という視点から多くのエンジニア・マーケターの注目を集めた。 なぜ Claude Code が収益化ツールとして注目されるのか Claude Code はコードを書くための AI アシスタントとして設計されているが、その本質は 「複雑なタスクを自律的に実行するエージェント」 だ。コーディングに限らず、以下のようなタスクを自動化できる。 SNS への投稿コンテンツ生成・スケジューリング アフィリエイトリンクを含む記事の自動生成・公開 複数プラットフォームへのクロスポスト アナリティクスデータの収集・レポート生成 A/B テスト用のコンテンツバリエーション作成 なおきさんの場合、10個の SNS アカウントを Claude Code ベースの自動化システムでフル稼働させ、アフィリエイト収益を得ているという。これは単なる「コンテンツ自動投稿」ではなく、エンゲージメント分析・最適化・収益化まで一気通貫で自動化していると考えられる。 AI 自動化アフィリエイトの仕組み 一般的な「AI 自動化アフィリエイト」のフローは以下のようになる。 1. ネタ収集 RSS フィード・トレンドワード・競合アカウントの投稿を自動収集 Claude Code がトレンドを分析し、反応が取れそうなテーマを選定 2. コンテンツ生成 選定テーマに基づいて Claude Code が投稿文・画像プロンプト・ハッシュタグを生成 アフィリエイトリンクを自然な形で挿入 3. スケジュール投稿 各 SNS の最適投稿時間帯に合わせてスケジューリング X、Instagram、TikTok、YouTube Shorts など複数プラットフォームに対応 4. 分析・改善 エンゲージメント率・クリック率・収益データを収集 Claude Code がデータを分析し、次のコンテンツ戦略を自動改善 ASP が果たす役割 — エコシステム全体像 このフローの中で ASP(Affiliate Service Provider) は、広告主とメディア運営者を繋ぐ「仲介プラットフォーム」として機能する。広告主・メディア運営者・Claude Code・SNS・エンドユーザーの関係を図にすると以下のようになる。 ...

2026年4月23日 · 3 分

Claude Code をローカル LLM(vLLM + MiniMax-M2.7)で爆速稼働させる方法

Claude Code を Anthropic の API ではなく、手元のマシンで動かすローカル LLM サーバーに接続することで、API コストをゼロにしながら最強のコーディングエージェントを使い倒せる。本記事では vLLM + MiniMax-M2.7 を組み合わせた構成を紹介する。 なぜローカル LLM で Claude Code を動かすのか 課題 解決策 API 費用が嵩む ローカル推論でコストゼロ 機密コードをクラウドに送りたくない データがマシン外に出ない レスポンスが遅い vLLM の高速推論エンジン 開発コストを抑えつつ、機密性の高いコードのデバッグや大規模リファクタリングにも安心して使える環境が手に入る。 技術スタック vLLM — OpenAI 互換 / Anthropic 互換の高速推論サーバー MiniMax-M2.7 — Claude Code との相性が高いオープンモデル(コーディング・エージェント特化) Prefix Caching — 繰り返し送信されるシステムプロンプトをキャッシュしてレイテンシをほぼゼロに vLLM で MiniMax-M2.7 を起動する 必要なハードウェア 構成 GPU メモリ KV Cache 4× GPU 96 GB × 4 400K トークン 8× GPU 144 GB × 8 3M トークン サーバー起動コマンド 4× GPU 構成(推奨): ...

2026年4月23日 · 2 分