非エンジニア(ADHD)が2ヶ月間Claude Codeに夢中になった結果、分身が生まれてシンギュラリティーに入った話

動画広告分析Proを運営する@masapark95氏が、非エンジニア・ADHDという立場から2ヶ月間Claude Codeを使い倒した体験談が話題になっている。「分身が生まれた」「シンギュラリティーに入った」という表現が印象的なこのポストから、非エンジニアがClaude Codeを活用するためのヒントを読み解く。 背景:非エンジニアがClaude Codeに出会うまで @masapark95氏(パク)は、株式会社KASHIKAが提供する動画広告分析ツール「動画広告分析Pro」の運営に携わる人物。累計2000社以上が利用するサービスを手がけるビジネスサイドの人で、ADHDの特性を持つことを公言している。 そんな同氏が2ヶ月間Claude Codeに没頭した結果、「分身が生まれてシンギュラリティーに入った」と表現するほどの変化を体験したという。 「分身」=AIパクくんの誕生 同氏が構築したのは、Claude Codeの設定ファイル群を駆使した「AIパクくん」と呼ばれるシステムだ。以下のファイルを組み合わせることで、自分の分身となるAIアシスタントを作り上げた: CLAUDE.md — AIの性格やルールを定義するファイル MEMORY.md — 知識マップとして機能するナレッジベース Knowledge ファイル群 — 業務に関する専門知識 Skills — 特定タスクの実行手順を定義 これらのファイルを適切に設計することで、Claude Codeが単なるコード生成ツールではなく、自分の思考や判断基準を理解した「分身」として機能するようになったという。 「シンギュラリティー」の感覚とは 同氏が「シンギュラリティーに入った」と表現するのは、Claude Codeとの協業で感じた加速感のことだ。具体的には: 1週間で338万行ものコードが生成されたとの報告(Claude Codeによる自動生成) 同週の利用料金は416ドルに達したとのこと(Claude Maxプラン利用時) 「止まらなくなる」感覚 — AIが既存アセットを掛け合わせて目標達成の提案を次々と行う この「止まらない」感覚こそが、同氏の言う「シンギュラリティー」だ。SkillsとKnowledgeの組み合わせをClaude Codeが最適化し、ワークフローの設計提案まで行うことで、人間側の判断が追いつかないほどの速度で物事が進んでいく体験を指している。 ADHDとClaude Codeの相性 ADHDの特性として知られる「過集中」は、Claude Codeとの相性が良い可能性がある。興味を持った対象に深く没頭できるADHDの特性と、対話的にタスクを進められるClaude Codeの特性が組み合わさることで、通常では考えられない生産性が生まれたと考えられる。 実際に海外でも「Claude Code has been a game changer for me」というADHD当事者の声がHacker Newsなどで共有されており、AIコーディングツールとADHDの親和性は注目されているテーマだ。 非エンジニアがClaude Codeを活用するポイント この事例から見えてくる、非エンジニアがClaude Codeを活用するためのポイント: CLAUDE.mdで「自分」を定義する — 自分の役割、判断基準、優先事項をCLAUDE.mdに明文化する MEMORY.mdでコンテキストを蓄積する — 会話を重ねるたびに学んだことを記録し、知識を積み上げる Skillsで定型作業を自動化する — 繰り返し行うタスクをSkillとして定義し、再利用可能にする Knowledgeで専門知識を注入する — 自分の業務ドメインの知識をファイルとして整理し、Claude Codeに読み込ませる Claude Code DEEP DIVE イベント この体験を共有するため、同氏は「Claude Code DEEP DIVE」という学習プログラムを2026年3月に開始している。非エンジニアがClaude Codeを実践的に活用するためのノウハウを提供する内容となっている。 ...

2026年3月12日 · 1 分

AI が生み出す新たな Moat:SoR から SoA への構造転換

AI エージェントの台頭により、エンタープライズソフトウェアの競争構造が大きく変わりつつある。従来の SoR(System of Record) から SoA(System of Action) への転換が進むなかで、何が新たな Moat になるのかを整理する。 Moat とは Moat(モート)は英語で「城の堀」を意味する。投資家ウォーレン・バフェットが「経済的な堀(Economic Moat)」として広めた概念で、競合他社が簡単には真似できない、持続的な競争優位性のことを指す。城の堀が敵の侵入を防ぐように、ビジネスにおける Moat は競合の参入を阻む構造的な障壁として機能する。ブランド力、ネットワーク効果、スイッチングコスト、独自データなどが代表的な Moat の例だ。 SoR(System of Record)とは SoR は「記録のシステム」、つまりデータを入力・蓄積・管理するためのソフトウェアを指す。CRM、ERP、会計ソフトなど、業務データの正式な記録先として機能するシステムがこれにあたる。 2010 年代の SaaS ブーム期には、SoR に加えて以下の概念も議論されていた。 SoE(System of Engagement) — 顧客やユーザーとの接点を担うシステム SoI(System of Insight) — データを分析し、示唆を得るためのシステム これらは米国 VC 界隈では以前から知られたフレームワークだが、AI エージェントの登場によって、新たに SoA という概念が注目を集めている。 SoA(System of Action)とは SoA は「行動のシステム」を意味する。従来のソフトウェアでは、データの分析結果をもとに人間が判断・実行していた。SoA では、AI エージェントがユーザーの意図を受け取り、自律的にデータ収集・処理・実行までを完結させる。 具体的には、 従来(SoR 中心): ユーザーが UI を操作 → データ入力 → 分析結果を確認 → 人間が判断・行動 SoA 時代: ユーザーが意図を伝える → AI エージェントが複数システムを横断 → API や MCP 経由でデータ収集・処理 → 結果を自動で実行 この変化は単なる UI の改善ではなく、業務ソフトウェアの構造そのものの転換といえる。 ...

2026年3月11日 · 1 分

ByteDance DeerFlow — オープンソースの SuperAgent 基盤でAIエージェントを自律運用する

ByteDance がオープンソースで公開した AI エージェント基盤「DeerFlow」(Deep Exploration and Efficient Research Flow)が注目を集めている。サブエージェントの自動振り分け、サンドボックスでのコード実行、長期メモリ、Claude Code 連携など、プロダクション運用を見据えた機能が揃っている。 DeerFlow とは DeerFlow は、LangGraph / LangChain をベースに構築されたオープンソースの「SuperAgent ハーネス」。複雑なタスクをサブエージェントに分解し、メモリとサンドボックスを活用しながら自律的に処理する。 2026年2月27日に v2.0 がリリースされ、GitHub Trending で #1 を獲得。v2.0 は v1 とコードを共有しない完全な書き直しで、プロダクション環境でのデプロイに焦点を当てている。 主な機能 サブエージェントの自動振り分け 複雑なタスクを並列のサブエージェントワークフローに分解する。各サブエージェントは隔離されたコンテキストで動作し、スコープされたツールと終了条件を持つ。 サンドボックス実行 タスクはコンテナ化された Docker 環境で実行される。専用のファイルシステムが用意され、入力・作業・出力のディレクトリが分離されている。 /mnt/user-data/uploads/ ← 入力ファイル /mnt/user-data/workspace/ ← 作業ディレクトリ /mnt/user-data/outputs/ ← 最終成果物 3つの実行モードをサポート: ローカル実行 — 開発用 Docker 実行 — 単一サーバーでのプロダクション Kubernetes 実行 — マルチサーバー環境 スキルシステム 機能モジュールは Markdown ファイルとして提供される。リサーチ、レポート生成、スライド作成、Web ページ、画像/動画生成のスキルが組み込まれており、タスクの必要に応じてプログレッシブにロードされる。 長期メモリ セッションをまたいだ永続的なプロファイルを構築できる。ユーザーの好み、ライティングスタイル、蓄積された知識をローカルに保存する。 コンテキスト管理 タスクの要約、中間結果のファイルシステムへのオフロード、長時間セッションでの圧縮された状態管理によって、コンテキストウィンドウを効率的に利用する。 セットアップ Docker での起動(推奨) 1 2 3 4 5 git clone https://github.com/bytedance/deer-flow.git cd deer-flow make config # config.yaml を設定 make docker-init make docker-start http://localhost:2026 でアクセスできる。 ...

2026年3月11日 · 2 分

Claude Code vs Codex:AI コーディングエージェント徹底比較 2026

AI コーディングエージェントの二大巨頭、Anthropic の Claude Code と OpenAI の Codex。どちらを使うべきか迷っている開発者は多いでしょう。Hesam 氏(@Hesamation)が数ヶ月間の実用比較を経て「Claude Code に戻った」という記事が話題になっています。本記事では、両ツールのベンチマーク・アーキテクチャ・実用上の使い分けを整理します。 ベンチマーク比較 SWE-bench Pro(ソフトウェアエンジニアリングタスク) モデル スコア Claude Opus 4.6 59.0% GPT-5.3-Codex 56.8% 複雑なソフトウェアエンジニアリングタスクでは Claude Opus 4.6 がリードしています。 Terminal-Bench 2.0(ターミナル操作タスク) モデル スコア GPT-5.3-Codex 77.3% Claude Opus 4.6 65.4% 一方、CLI 操作や CI/CD 関連のタスクでは Codex が強さを発揮します。 アーキテクチャの違い コンテキストウィンドウ Claude Code: 100万トークン(ベータ) Codex: 40万トークン Claude Code は 2.5 倍のコンテキストウィンドウを持ち、大規模なコードベースの横断的な分析に強みがあります。 実行速度 Codex: Cerebras WSE-3 で 1,000+ トークン/秒 Claude Code: 約 200 トークン/秒(標準推論) 速度面では Codex が圧倒的です。ただし、Claude Code はトークン消費量が 3.2〜4.2 倍多い傾向にあり、同じタスクでもより多くの推論を行っている可能性があります。 ...

2026年3月11日 · 1 分

Claude Code vs OpenClaw — 「どっちを勉強すべき?」に対する責務ベースの選び方

AI コーディングエージェントの選択肢が増えるなか、「Claude Code と OpenClaw、どっちを勉強すべき?」という疑問を抱く人が増えている。AI駆動塾(@L_go_mrk)が両方を実際に触った上での比較記事を公開した。本記事では、この比較を起点に両ツールの位置づけを整理する。 そもそも何が違うのか 一言でまとめると、**Claude Code は「開発」、OpenClaw は「運用・自動化」**のためのツールだ。 観点 Claude Code OpenClaw 開発元 Anthropic(プロプライエタリ) Peter Steinberger(オープンソース) 主な用途 コーディング、PR レビュー、リファクタリング 日常タスク自動化、DevOps、定期ジョブ インターフェース ターミナル CLI メッセージングアプリ(Telegram, Discord, Signal 等) 記憶 セッションごとにリセット(CLAUDE.md で補完) 永続メモリ(日記、TODO リスト、アイデンティティファイル) 料金 サブスクリプション(月額 $20〜)または API 従量課金 無料(接続する LLM API の料金のみ) LLM Claude モデル固定 Claude, DeepSeek, GPT 等を選択可能 セキュリティ Anthropic が管理、安全ガードレール付き ユーザー管理、システム権限を継承 Claude Code が強い領域 Claude Code は SWE-bench で約 80.8% のスコアを達成しており、複雑なコード変更やリファクタリングにおいて高い精度を発揮する。Extended Thinking による段階的な推論が、大規模な変更を安全に実行する鍵になっている。 強みをまとめると: コード品質: Hooks による PostToolUse リンター自動実行、プリコミットチェック PR ワークフロー: ブランチ作成→コミット→PR→レビューの一気通貫 エンタープライズ対応: Team / Enterprise プラン、Code Review 機能 安全性: 破壊的操作に対するガードレール OpenClaw が強い領域 OpenClaw(愛称 “Molty”)は、常駐型の AI エージェントだ。ターミナルで起動して終了する Claude Code と異なり、バックグラウンドで動き続け、cron ジョブやウェブフックでタスクを実行する。 ...

2026年3月11日 · 3 分

Claude Code のスキルを作るなら skill-creator プラグインを使おう

Anthropic が公開した「The Complete Guide to Building Skills for Claude」という 33 ページの PDF ガイドが話題になっています。このガイドをそのまま Claude Code のメモリに読み込ませてスキル構築に活用しようとする人もいますが、実は公式の skill-creator プラグインを使う方がはるかに効率的です。 skill-creator はガイドの内容をすべて反映しているだけでなく、テスト・最適化・トリガー精度改善といった仕組みも組み込まれています。PDF をメモリに入れるとコンテキストウィンドウを圧迫するリスクもあるため、新規スキル作成には skill-creator を導入するのがおすすめです。 Claude Code のスキルとは スキルとは、Claude に特定のタスクの実行方法を教える 指示・スクリプト・リソースのフォルダ です。SKILL.md ファイルに YAML フロントマターと指示を記述するだけで作成できます。 Claude Code は 3 段階の情報ロードシステム(Progressive Disclosure)を採用しています。 起動時: インストール済みスキルの名前と説明文のみをシステムプロンプトに読み込む(スキルあたり約 50〜100 トークン) 判定時: ユーザーの入力に関連するスキルがあるかを判定 実行時: 該当スキルの全内容をロード この仕組みにより、多数のスキルをインストールしてもコンテキストウィンドウを無駄に消費しません。 skill-creator プラグインのインストール skill-creator は Anthropic 公式マーケットプレイスに含まれています。Claude Code 内で以下のコマンドを実行するだけでインストールできます。 1 /plugin install skill-creator@claude-plugins-official インストール後、プラグインを有効化します。 1 /reload-plugins なお、/plugin コマンドで Discover タブを開き、GUI からインストールすることも可能です。プラグイン機能を利用するには Claude Code バージョン 1.0.33 以上 が必要です(claude --version で確認できます)。 ...

2026年3月11日 · 2 分

CLAUDE.md の設定を99%消したら逆にうまくいった話:AI への指示は「哲学」だけ残せ

Claude Code の設定ファイル CLAUDE.md に「こう書け」「これは禁止」「この順番で処理しろ」とルールを追加していったら 300行を超え、AI の出力品質がどんどん落ちていった——そんな経験を経て「99%消した。残したのは、哲学だけ。」という結論に至った話が X で話題になっている。 なぜルールを増やすと AI の性能が落ちるのか コンテキストウィンドウの競合 LLM はコンテキストウィンドウ内のすべての情報を処理する。CLAUDE.md のルールが増えるほど、実際の作業に使える「注意力」が奪われる。コンテキストが埋まるにつれてパフォーマンスが低下するのは、LLM の根本的な特性だ。 指示の上限問題 IFScale ベンチマークの研究によると、フロンティアモデルは 150〜200個の指示 を超えたあたりから選択的注意のバイアスがピークに達し、それ以降は均一に失敗するパターンに収束する。Claude Code のシステムプロンプト自体がすでに約50個の指示を含んでいるため、ユーザーが使える枠は実質100〜150個。200行の詳細なルールを書いた時点で、すでに予算オーバーだ。 指示追従バイアス LLM はプロンプトの 先頭と末尾 の指示に従いやすい傾向がある。中間に埋もれたルールは見落とされがちだ。ルールが増えるほど、重要な指示が中間に埋もれて無視されるリスクが高まる。 具体的に何が起こるか 例えば「見出しは H2 を必ず4つ使え」「セクションは5つ構成にしろ」というルールを設定したとする。すると AI は、本来3セクションで十分な内容でも無理やり5セクションに引き伸ばし、冗長な文章を生成してしまう。 ルールに 従うこと自体が目的化 し、最適な出力を考える余地がなくなる。これは人間の組織でも起こる現象だ。過剰なルールがかえって生産性を下げる。 「哲学だけ残す」アプローチ 細かいルールではなく方針を伝える 悪い例: - 見出しは H2 を4つ使うこと - 各セクションは200〜300文字 - コードブロックには必ず言語指定をつけること - 箇条書きは最大5項目まで 良い例: - 読者が最短で理解できる構成を優先する - 冗長さよりも明確さを重視する Anthropic 公式の推奨 Anthropic の公式ドキュメントでも、CLAUDE.md について以下のように推奨している: 肥大化した CLAUDE.md は、実際の指示を AI に無視させる原因になる Claude がすでに正しくやっていることについては、わざわざルールを書かない 削除できるものは削除し、自動化できるものはフックに変換する Progressive Disclosure パターン すべての情報を CLAUDE.md に詰め込むのではなく、情報の見つけ方 を教える方法が効果的だ。 ...

2026年3月11日 · 3 分

Figma プラグイン Image Translator:画像からテキストを抽出して多言語翻訳

海外サービスの UI を調査するとき、スクリーンショット内のテキストを手作業で翻訳するのは地味に手間がかかる。TSUMIKI INC. の鈴木慎吾氏(@shingo2000)が公開した Figma プラグイン Image Translator は、この作業を自動化してくれる。 Image Translator とは Image Translator は、Figma 上で選択した画像からテキストを自動抽出(OCR)し、指定した言語に翻訳する Figma プラグインだ。 主な特徴: 画像からのテキスト自動抽出 — スクリーンショットや UI キャプチャからテキストを認識 多言語翻訳 — 英語、日本語、中国語、スペイン語、韓国語、ポルトガル語などに対応 2つの表示モード — Figma のアノテーション機能で表示するモードと、テキストレイヤーとして配置するモードを選択可能 使い方 Figma で翻訳したい画像を選択する プラグインメニューから Image Translator を起動する 翻訳先の言語を選択する 抽出・翻訳されたテキストがアノテーションまたはテキストレイヤーとして表示される 活用シーン 海外サービスのデザイン調査 競合分析や UI リサーチで海外アプリのスクリーンショットを収集した際、画面内のテキストを素早く日本語で確認できる。翻訳結果がアノテーションとして画像に紐づくため、チームメンバーとの共有にも便利だ。 多言語対応の確認 自社サービスの多言語版スクリーンショットを取り込み、各言語のテキストが正しく表示されているか確認する用途にも使える。 まとめ Image Translator は、デザイン調査における画像内テキストの翻訳という地味だが頻出する作業を自動化してくれるプラグインだ。海外サービスの UI を日常的に調査しているデザイナーにとって、ワークフローの効率化に役立つだろう。 Figma Community: Image Translator 作者: 鈴木慎吾 / TSUMIKI INC.

2026年3月11日 · 1 分

GitHub で見つけた「便利ツール」を解析したらマルウェアだった話:偽 OpenClaw インストーラーの実態

GitHub 上で OpenClaw の便利ツールを装った不審なリポジトリが発見され、実際に解析したところマルウェア(シェルコードローダー)であることが判明した。ひよっこサウナ氏(@hiyoko_sauna)による詳細な解析レポートを基に、この攻撃手法の全体像を紹介する。 対象リポジトリの特徴 github.com/sdwadsagw/OpenClawInstaller という、「Open Claw を簡単にインストールできるツール」として公開されていたリポジトリが対象だ。 項目 値 アカウント作成日 2026-02-11(リポジトリと同日作成) Star / Fork 2 / 0 説明文 「AI assistant for Open Claw」 使い捨てアカウント(リポジトリと同日作成)という時点で怪しさ満点だ。 ZIP の中身 Claw-Installer-Open-2.8-alpha.3.zip を展開すると 4 ファイルが入っていた。 ファイル サイズ VT 検出率 説明 StartApp.bat 22 bytes - start luau.exe asm.txt を実行するだけ luau.exe 288,768 bytes 25/76 LuaJIT 2.1.0-beta3(正規バイナリ) lua51.dll 390,144 bytes 1/75 LuaJIT 用ランタイム DLL asm.txt 309,298 bytes 0/76 難読化された Lua スクリプト 注目すべきは asm.txt の検出率が 0/76 という点だ。悪意のあるコードは asm.txt に書かれているのに検出されず、無害な luau.exe の方が検出されるという逆転現象が起きている。 ...

2026年3月11日 · 2 分

Google Gemini Embedding 2:テキスト・画像・動画・音声を統一ベクトル空間に埋め込むマルチモーダル埋め込みモデル

Google が 2026年3月に公開した Gemini Embedding 2 は、テキスト・画像・動画・音声・ドキュメントを同一のベクトル空間に埋め込める、初のネイティブマルチモーダル埋め込みモデルだ。RAG パイプラインやマルチモーダル検索を構築する開発者にとって注目すべきモデルとなっている。 主な特徴 ネイティブマルチモーダル対応 従来の埋め込みモデルはテキスト専用か、別モデルで画像を処理する必要があった。Gemini Embedding 2 は全モダリティを 3072次元の統一ベクトル空間 に直接埋め込む。これにより、テキストで検索して関連する画像や動画を取得するといったクロスモーダル検索が自然に実現できる。 対応モダリティと制限: モダリティ 制限 テキスト 最大 8,192 トークン 画像 1リクエストあたり最大 6枚(PNG, JPEG) 動画 最大 120秒(MP4, MOV) 音声 ネイティブ対応(テキスト変換不要) インターリーブ入力にも対応しており、1つのリクエストに画像とテキストを混在させて渡すことができる。 Matryoshka 表現学習(MRL) Matryoshka Representation Learning(マトリョーシカ表現学習)により、重要な意味情報がベクトルの先頭次元に集約される設計になっている。デフォルトの 3,072次元から 1,536 や 768次元に切り詰めても、検索品質の大部分を維持できる。 Google の推奨次元数: 3,072次元:最高品質 1,536次元:高品質(コスト削減向け) 768次元:バランスの良い推奨値 768次元に切り詰めた場合でも、同サイズの固定次元モデルを上回る性能を発揮するとされている。 多言語対応と性能 100以上の言語をサポート MTEB 多言語リーダーボードで 69.9 を記録しトップランク MTEB コード検索でも 84.0 と高スコア 料金 プラン 料金 リアルタイム API $0.20 / 100万トークン バッチ API $0.10 / 100万トークン(50% OFF) OpenAI の text-embedding-3-small($0.02/100万トークン)と比較すると高価だが、マルチモーダル対応を単一モデルで実現している点が差別化要因となる。 ...

2026年3月11日 · 1 分