LLMで株式投資戦略を自動生成 — 松尾研のフィードバック設計実験が示す「モデル選択」の重要性

東京大学・松尾研究所の研究グループが、LLM(大規模言語モデル)に株式投資戦略を自動生成・改善させる実験を行い、その結果を人工知能学会 金融情報学研究会(SIG-FIN-036)で発表しました。8つの LLM と3種類のフィードバック条件を組み合わせた72パターンの実験から、「フィードバックの設計よりモデル選択のほうが戦略改善に大きく影響する」という知見が得られています。 研究の背景 LLM をクオンツ投資(数理モデルに基づく定量的投資手法)に活用する研究は近年急速に増えていますが、「LLM に過去の成績をどう伝えれば戦略をうまく改善できるか」というフィードバック設計の体系的な検証はほとんど行われていませんでした。本研究はこのギャップを埋めるものです。 実験フレームワーク 研究では、以下のような反復的な戦略改善ループを構築しています。 LLM に初期の投資戦略(Python コード)を生成させる 過去データでバックテスト(シミュレーション)を実行する シミュレーション結果をフィードバックとして LLM に提示する LLM が結果を分析し、戦略コードを修正する 2〜4 を繰り返して戦略を改善する 対象データ 銘柄: TOPIX 500(金融セクターを除く) 期間: 2014〜2022年の日次データ 特徴量: 株価、出来高、ファンダメンタル指標、マクロ指標など80種類 フィードバックの3条件 フィードバックに含める情報を2つの観点(情報の範囲と提示形式)で段階的に拡張し、3つの条件を比較しています。 条件 情報の範囲 提示形式 条件A 基本的な損益指標のみ テキストのみ 条件B 基本指標 + 予測精度・リスク構造の指標 テキストのみ 条件C 基本指標 + 予測精度・リスク構造の指標 テキスト + グラフ画像 使用モデル(8種・3ファミリー) GPT 系(OpenAI): GPT-5 を含む3モデル Gemini 系(Google): Gemini 3 Flash を含む2モデル Claude 系(Anthropic): Claude 4.5 Sonnet を含む3モデル 主要な結果: モデルごとの「性格」が成績を左右 実験の最大の発見は、フィードバック条件の違いよりもモデルの違いがパフォーマンスに大きく影響したことです。各モデルファミリーには明確な挙動の傾向が見られました。 Claude 系: 安定的・漸進的な改善 Claude 系モデル(特に Claude 4.5 Sonnet)は、既存の戦略コードの構造を保ちつつ局所的な修正を積み上げる傾向がありました。この「コツコツ型」のアプローチが安定的な改善につながり、最終的なパフォーマンスでも優れた結果を示しています。 ...

2026年4月3日 · 1 分

Onyx(旧 Danswer)完全ガイド — 無料で使えるオープンソース AI プラットフォーム

Onyx(旧 Danswer)は、社内のドキュメント・アプリ・人材をまとめて繋ぎ、どんな LLM とも連携できるオープンソースの AI プラットフォームです。Community Edition(CE)は MIT ライセンスで完全無料。セルフホストできるため、データを外部に出さずに AI チャットや RAG、エージェント機能を利用できます。 Onyx とは Onyx は企業向け AI アシスタント&検索プラットフォームです。Slack、GitHub、Confluence、Google Drive など 50 以上のコネクタで社内ナレッジを統合し、自然言語で質問するだけで必要な情報を引き出せます。 GitHub リポジトリ(onyx-dot-app/onyx)のスター数は 22,000 超で、活発に開発が続いています。 主な機能 チャット&RAG ハイブリッド検索: ベクトル検索とキーワード検索を組み合わせた高精度な情報検索 Agentic RAG: AI エージェントが検索クエリの生成・評価・再検索を自律的に繰り返し、複数ステップで情報を収集 Deep Research: 多段階のリサーチフローで詳細なレポートを生成 エージェント&ツール カスタムエージェント: 固有の指示・知識・アクションを持つ AI エージェントを構築可能 Web 検索: リアルタイムの Web 情報を取得 コード実行: サンドボックス内でコードを実行し、データ分析やグラフ描画が可能 画像生成: プロンプトに基づいた画像生成 音声モード: テキスト読み上げ&音声入力に対応 コネクタ(50 以上) Slack、GitHub、Confluence、Notion、Google Drive、Jira、Linear など主要サービスと連携。MCP(Model Context Protocol)経由のカスタムコネクタにも対応しています。 エディション比較 項目 Community Edition (CE) Enterprise Edition (EE) ライセンス MIT(無料) 商用ライセンス チャット・RAG・エージェント ✅ ✅ SSO(OIDC / SAML) — ✅ エアギャップ環境 — ✅ サポート コミュニティ 専用サポート Cloud 版も提供されており、セルフホストなしで試用できます。ビジネスプランは 1 ユーザーあたり月額 $16〜。 ...

2026年4月3日 · 2 分

AI UGC動画広告ツール徹底比較 — Arcads・Creatify・HeyGen・Synthesia の選び方

AIで動画広告を自動生成するツールが急増している。中でも UGC(ユーザー生成コンテンツ)スタイルの広告動画は、SNS 広告のパフォーマンスを左右する重要な要素だ。本記事では、この領域の主要4ツール — Arcads、Creatify、HeyGen、Synthesia — を機能・料金・API・ユースケースの観点から徹底比較する。 4ツールの概要 Arcads — UGC広告のリアルさで圧倒 Arcads(arcads.ai)はフランス発のスタートアップで、UGC スタイルの動画広告生成に特化している。1,000以上のAIアクターを搭載し、自然な表情・ジェスチャー・口の動きを再現する。30秒の商品テスティモニアル(体験談)動画を比較した際、Arcads のアバターは目線の動き、手の強調、感情表現の点で他ツールを上回るという評価が多い。 項目 内容 設立 2024年 創業者 Dylan Fournier、Romain Torres 資金調達 シード 1,600万ドル(Eurazeo リード) ARR 18ヶ月で0 → 1,300万ドル 顧客数 6,000社以上 Creatify — URL貼り付けで動画を自動生成 Creatify(creatify.ai)は、商品ページの URL を貼り付けるだけで動画広告を自動生成する点が最大の特徴だ。AIが商品情報をスクレイピングし、台本生成から動画制作までを一気通貫で行う。Shopify ストアで50以上の SKU(商品管理単位)を扱うような EC事業者にとって、圧倒的な効率化を実現する。 項目 内容 設立 2023年 創業者 Yinan Na、Ledell Wu(元 Meta FAIR)、Xin Zhou 資金調達 Series A 1,550万ドル(WndrCo / Kindred Ventures)、累計2,300万ドル ARR 約900万ドル 顧客数 10,000チーム以上(Alibaba、Binance 等) HeyGen — 企業向け多言語動画の王者 HeyGen(heygen.com)は、企業向けの多言語動画プラットフォームとして最も成熟している。175以上の言語に対応し、既存動画の翻訳・吹き替えもリップシンク付きで行える。研修動画やプロダクトデモなど、洗練された映像が求められる場面で強い。 項目 内容 設立 2020年 創業者 Joshua Xu、Wayne Liang 資金調達 Series A 6,000万ドル(Benchmark / Thrive Capital)、評価額5億ドル ARR 約9,500万ドル(2025年9月時点) 特記 Q2 2023 に黒字化達成 Synthesia — 業界最古参、エンタープライズの標準 Synthesia(synthesia.io)は AI動画生成の先駆者であり、50,000以上のチームに導入されている。2026年1月に Series E で2億ドルを調達し、評価額は40億ドルに到達した。企業向け研修・教育コンテンツの領域では事実上のスタンダードだ。 ...

2026年4月2日 · 3 分

Arcads 完全ガイド — AIで UGC 動画広告を大量生成するプラットフォーム

AI による動画広告の自動生成が急速に進化している。その中でも Arcads は「UGC スタイルの広告動画」に特化したプラットフォームとして注目を集めている。フランス発のスタートアップが18ヶ月で売上1,300万ドルを達成し、シードラウンドで1,600万ドルを調達した背景には何があるのか。本記事では Arcads の機能、使い方、料金、活用事例、競合比較までを網羅的に解説する。 Arcads とは Arcads(arcads.ai)は、テキストの広告台本から UGC(User Generated Content = 一般ユーザーが撮影したような自然な見た目のコンテンツ)スタイルの動画広告を AI で自動生成するプラットフォームだ。2024年に Dylan Fournier 氏と Romain Torres 氏がフランスで創業した。 従来、UGC 風の動画広告を制作するには、クリエイターへの依頼(1本80〜200ドル以上)や撮影・編集が必要だった。Arcads はこのプロセスを「台本入力 → AIアクター選択 → 動画生成」の3ステップに短縮し、1本あたり約11ドルで動画を生成できる。レンダリング時間は約10分だ。 会社の概要 項目 内容 設立 2024年 創業者 Dylan Fournier、Romain Torres 本拠地 フランス(サンフランシスコにも拠点拡大中) 資金調達 シードラウンド 1,600万ドル(2025年12月) 投資家 Eurazeo(リード)、Alpha Intelligence Capital、Sequoia Scout 顧客数 6,000社以上 月間生成数 10万アセット以上 売上推移 18ヶ月で0 → 1,300万ドル 主要機能 AIアクターライブラリ 1,000以上のプリセットAIアクターを搭載。実在の人間をベースにトレーニングされており、自然な表情・ジェスチャー・口の動きを再現する。性別・年齢・人種・撮影環境(自宅・オフィスなど)でフィルタリングして、ターゲット層に合ったアクターを選べる。 カスタムAIアバター プリセットだけでなく、独自のAIアバターも生成可能。アバターに商品を持たせたり、アプリ画面を表示させたり、ブランドの服を着せたりするカスタマイズにも対応する。 感情・表現コントロール テキスト指示で「驚き」「興奮」「親しみ」などの感情表現をコントロールできる。Speech-to-Speech 機能を使えば、自分の感情的な語り口をそのまま AIアクターに反映させることも可能だ。 バッチ生成 Arcads の最大の武器。1つの台本から、アクター・フック・CTA・背景を変えて数十〜数百のバリエーションを一括生成できる。パフォーマンスマーケターにとっては、従来の手法では資金的に不可能だった規模のA/Bテストを実現できる。 多言語対応 30以上の言語に対応し、正確な翻訳・吹き替えが可能。グローバルに広告を展開する際の多言語クリエイティブ制作を効率化する。 ...

2026年4月2日 · 2 分

Claude Code のコンテキスト圧縮戦略 — ソースコードから見える5つのアプローチ

Claude Code のソースコードから、会話が長くなったときのコンテキスト圧縮方法が5種類あることが明らかになった。コンテキストウィンドウの管理は AI コーディングエージェントにおける中心課題であり、Anthropic のエンジニアがかなりの時間をかけて取り組んでいる領域だ。 5つの圧縮戦略 1. Microcompact — 古いツール結果の時間ベース消去 時間経過に応じて古いツール実行結果(ファイル読み取り、grep 結果、bash 出力など)を自動的に消去する戦略。API 呼び出しを発生させず、キャッシュされたコンテンツをローカルで直接編集する軽量な処理だ。 ツール結果は会話中で最も大きなトークンを占めるが、時間が経つにつれて重要度は下がる。この戦略により、最新のやり取りに集中しつつトークン消費を抑えられる。 2. Context Collapse — 会話の部分要約 会話の特定の範囲を要約で置き換える戦略。長い対話セクションを圧縮された要約に変換し、セマンティックな意味を保持しながらトークン消費を削減する。 全体を要約するのではなく「部分的に」要約するため、直近の文脈はそのまま保持される点がポイントだ。 3. Session Memory — 重要な文脈のファイル抽出 重要な情報を別ファイルに永続化する戦略。完了した作業、進行中の作業、関連ファイル、次のステップなどの重要な詳細を抽出し、会話の全履歴をアクティブメモリに保持せずに参照できるようにする。 Claude Code の /compact コマンドを手動で実行した際にも、この仕組みが活用される。要約には以下の情報が保持される: 何が完了したか 現在進行中の作業 関連するファイル 次のステップ ユーザーの重要なリクエストや制約 4. Full Compact — 履歴全体の要約 会話履歴全体を包括的に要約する戦略。コンテキストウィンドウが限界に近づき、大量の対話が蓄積された場合に有用だ。 自動圧縮(auto-compact)は、コンテキストウィンドウに対して約33,000トークンのバッファを残すタイミングで発動する。200Kトークンのウィンドウであれば、約167Kトークンを使用した時点がトリガーとなる。 連続する自動圧縮の失敗が3回を超えると、そのセッションでの圧縮は無効化される(MAX_CONSECUTIVE_AUTOCOMPACT_FAILURES = 3)。この定数は autoCompact.ts に定義されており、かつて1,279セッションで50回以上の連続失敗(最大3,272回)が発生し、日あたり約250,000回のAPI呼び出しが無駄になっていた問題を解決するために導入された。 5. PTL Truncation(Past Turn Limiting) — 古いメッセージ群の切り捨て トークン圧力が臨界に達した際に、最も古いメッセージ群を切り落とす戦略。最近の文脈を優先し、過去のやり取りを犠牲にする最終手段だ。 コンテキスト圧力のカスケード これらの5つの戦略に加え、ツール結果の割り当て制御(バジェッティング)がカスケードの最初の段階として存在する。各戦略は個別に動作するのではなく、軽量な処理から順に段階的なカスケードとして機能する: ツール結果バジェッティング → Microcompact → Context Collapse → Full Compact(Auto Compact)→ PTL Truncation 軽量な処理から順に適用され、それぞれの段階で何を保持し何を破棄するかの基準が異なる。 ...

2026年4月2日 · 1 分

AI Brain Fry: AIの使いすぎで脳が焼ける現象とその対策

BCG(ボストン・コンサルティング・グループ)が2026年3月に発表した研究で、AIツールの過度な使用による認知疲労「AI Brain Fry(AIによる脳の焼き付き)」が注目を集めている。 Harvard Business Review にも掲載されたこの研究の要点と対策をまとめる。 AI Brain Fry とは AI Brain Fry とは、AIツールの過度な使用・監視によって認知能力を超える精神的疲労が生じる現象のこと。BCGの研究チームが米国の大企業に勤める1,488名のフルタイム労働者を対象に調査を行い、この概念を提唱した。 従来のバーンアウト(燃え尽き症候群)とは異なり、外から見ると生産的に働いているように見えるにもかかわらず、内面では認知的に疲弊しているという特徴がある。 調査の主な結果 影響を受けている割合 AIを業務で使用する労働者の 14% がAI Brain Fryを経験 マーケティング職が最も高く 25.9%、次いでHR・人事部門が 19.3% ソフトウェア開発、財務、IT部門でも高い割合 具体的な症状 調査対象者は以下のような症状を報告している: 頭の中が「ブンブンする(buzzing)」感覚 精神的な霧がかかった状態(メンタルフォグ) 集中力の低下 意思決定に時間がかかる 頭痛 業務への影響 AI Brain Fryを経験している労働者は: 重大なミスを起こす頻度が 39%増加 離職意向が 39%上昇(25%から34%へ) AI監視作業が多い労働者は以下の増加が報告されている: 精神的努力: 14%増加 精神的疲労: 12%増加 情報過負荷: 19%増加 なぜAIの使用が疲労を生むのか 認知科学の観点から、以下のメカニズムが指摘されている: コンテキストスイッチングの過負荷 複数のAIツール間を頻繁に切り替えることで、認知的な切替コストが蓄積する。ツールを4つ以上使用すると生産性が低下するという報告もある。 注意残余(Attention Residue) 前のタスクのことが頭から離れず、次のタスクに集中しにくくなる現象。AIが次々と出力を生成するため、「完了」の区切りが曖昧になりやすい。 評価モードの支配 AIの出力を常にレビュー・評価する「評価モード」が支配的になり、自ら考えを生み出す「生成モード」が抑制される。これにより創造性が低下し、認知疲労が増大する。 対策 個人レベル タイムボクシング: AI作業に時間制限を設け、集中と休息のリズムを作る ツール数の制限: 同時に使用するAIツールを3つまでに絞る 身体活動を含む休憩: デジタルから離れ、散歩やストレッチで認知をリセットする 生成モードの時間を確保: AIに頼らず自分で考える時間を意識的に設ける 組織レベル 評価指標の見直し: コード行数のような量的指標から、成果ベースのKPIへ移行する マネージャーのサポート強化: AI導入に伴う認知負荷について、管理職が理解しサポートする体制を構築する 人とプロセスへの投資: テクノロジーだけでなく、投資の70%を人材とプロセスの改善に充てる まとめ AIは作業を効率化する強力なツールだが、「使えば使うほど良い」わけではない。BCGの研究は、AIツールの過度な使用が逆に生産性を低下させ、離職リスクを高めることを定量的に示した。 ...

2026年3月31日 · 1 分

Claude Code + Self-hosted Runner: 「Auto mode is unavailable for your plan」エラーの原因と対処

症状 GitHub Actions の self-hosted runner で claude --print を使った自動処理が突然動かなくなった。 claude CLI failed (rc=1): stdout=Auto mode is unavailable for your plan すべてのエージェント呼び出し(researcher, risk, portfolio optimizer)が同じエラーで失敗し、日次の投資提案が生成されなくなった。 ローカルで claude --print "hello" を実行すると正常に動作する。claude auth status でも Max プランで認証済みと表示される。 原因 2つの問題が重なっていた。 1. OAuth トークンの期限切れ(副次的問題) ワークフローで CLAUDE_CODE_OAUTH_TOKEN 環境変数に 期限切れの OAuth トークン を GitHub Secrets から渡していた。 1 2 3 4 # daily-proposal.yml - name: 日次投資提案を生成 env: CLAUDE_CODE_OAUTH_TOKEN: ${{ secrets.CLAUDE_CODE_OAUTH_TOKEN }} # ← 2月に設定したまま GitHub Secrets のトークンは静的で自動更新されない ローカルでは環境変数未設定のため、キーチェーンから有効なトークンが自動取得されて動作していた 2. Opus の auto mode 制限(真の原因) claude --print はデフォルトで auto mode(ツール自動承認)で動作する。Max プランで Opus モデルの auto mode が制限されたため、トークンが有効でも Opus では --print が使えなくなっていた。 ...

2026年3月31日 · 2 分

Claude Code の sensitive file チェックを回避する — git worktree の配置場所を .claude/ の外に移す

Claude Code の auto モードでブログ記事作成を完全自動化しようとしたところ、.claude/ ディレクトリ配下のファイルへの書き込みで毎回同意を求められる問題に遭遇しました。原因と対処法を記録します。 問題:.claude/ 配下は sensitive file 扱い Claude Code には、.claude/ ディレクトリ内のファイルを「sensitive file」(設定やスキル定義など、ツールの動作に影響する重要ファイル)として扱う組み込みのセキュリティチェックがあります。settings.local.json の permissions.allow に Write/Edit の許可パターンを追加しても回避できません。sensitive file チェックは permissions とは別レイヤーで動作するためです。 実際に発生したメッセージ: Claude requested permissions to edit .claude/temp/pr_body.md which is a sensitive file. 背景:ブログ記事作成の自動化ワークフロー このブログでは /blog スキルで記事作成から PR 作成まで自動化しています。ワークフローの概要: git worktree を作成してブランチを切る worktree 内に記事ファイルを作成 Hugo ビルド確認 コミット・プッシュ PR 本文ファイルを書き出し、gh pr create --body-file で PR 作成 ソース元に PR リンクを追記 問題が起きたのはステップ 5 です。PR 本文ファイル(pr_body.md)を .claude/temp/ に Write ツールで書き込もうとすると、sensitive file チェックに引っかかります。 ...

2026年3月31日 · 2 分

Claude Code を Ollama でローカル無料実行する方法

Claude Code がローカル LLM で無料実行できるようになった。Ollama を使えば、API 料金なしで Claude Code のインターフェースを活用できる。 背景 Claude Code は Anthropic が提供する CLI ベースの AI コーディングアシスタントだ。通常は Anthropic API を通じて利用するため、API 使用料が発生する。しかし Ollama v0.14.0 以降で Anthropic Messages API 互換のエンドポイントが実装され、ローカル LLM を Claude Code のバックエンドとして使えるようになった。 2026年1月にリリースされた Ollama v0.15 では ollama launch claude コマンドが追加され、セットアップがさらに簡単になっている。 セットアップ手順 方法1: ollama launch(推奨・v0.15 以降) Ollama v0.15 で追加された ollama launch コマンドを使えば、環境変数の設定なしでワンコマンドで起動できる: 1 ollama launch claude モデルを指定する場合: 1 ollama launch claude --model qwen3-coder 方法2: 環境変数を手動設定(v0.14 以降) 1. Ollama のインストール macOS/Linux の場合は以下のコマンドでインストールできる。macOS では公式サイトのインストーラーも利用可能: ...

2026年3月31日 · 1 分

MiroFish その後: 3週間で GitHub Star 4.7万超へ — コミュニティの広がりと今後の展望

以前の記事で紹介した AI 予測エンジン「MiroFish」が、公開から約3週間で GitHub Star 4.7万超にまで急成長しています。本記事では、その後の動向とコミュニティの広がりを追います。 3週間での急成長 3月10日時点で約11,000だった Star 数は、3月末時点で 47,000以上 に到達しました。約3週間で4倍以上の成長です。 GitHub Trending で世界1位を獲得した直後の注目度に加え、盛大グループ創業者・陳天橋氏からの3,000万元(約6億円)の即決投資が報じられたことで、AI エージェント分野への関心の高さを示すプロジェクトとして広く認知されました。 コミュニティの広がり MiroFish のオープンソース公開後、コミュニティによる派生プロジェクトが活発に展開されています。 オフライン版フォーク MiroFish-Offline は、Neo4j と Ollama を使ったローカル完結型のフォークです。クラウド API への依存を排除し、プライベートな環境でマルチエージェントシミュレーションを実行できます。企業内のデータを外部に出せないケースなどでの活用が想定されます。 デモサイト 公式デモサイトが公開されており、ブラウザ上で MiroFish の予測プロセスを体験できます。 多言語対応フォーク 英語版 README の整備や、コミュニティによる英語フォークも複数登場し、中国語圏以外への普及が進んでいます。 群体知能アプローチへの注目 MiroFish が採用する群体知能(Swarm Intelligence)アプローチは、従来の AI 予測と異なる特徴を持っています。 従来の予測モデルは統計的パターンや単一モデルの推論に依存しています。一方、MiroFish は数千のエージェントによる社会的シミュレーションを通じて予測を行います。エージェント同士が議論し、説得し、立場を変えるプロセスを経ることで、集団行動や社会的伝播といった創発的パターンを予測に反映できます。 このアプローチは、特に世論形成や市場心理のような「人間の集団行動」が結果を左右する領域で有効性が期待されています。 今後の注目点 MiroFish の急成長は印象的ですが、今後の展開にはいくつかの注目点があります。 予測精度の検証: 実際のイベントに対する予測精度がどの程度か、体系的な評価はまだ少ない スケーラビリティ: OASIS エンジンは100万エージェント対応を謳うが、実運用での性能と品質のバランス LLM コスト: 数千エージェントの同時推論に必要な API コストの最適化 ユースケースの深化: 汎用的な「万物を予測」から、特定領域での実用性の実証 まとめ MiroFish は、公開からわずか3週間で GitHub Star 4.7万超という驚異的な成長を遂げました。オフライン版フォークやデモサイトの登場など、コミュニティの展開も活発です。 群体知能によるマルチエージェント予測というコンセプトは多くの開発者の関心を集めていますが、実用面での検証はこれからです。今後の予測精度の実証やユースケースの深化に注目していきたいプロジェクトです。 参考リンク MiroFish GitHub リポジトリ MiroFish-Offline (ローカル版フォーク) MiroFish: The AI Swarm Engine That Simulates the Future 前回の記事: MiroFish — 20歳の学生が10日間の Vibe Coding で作った AI 未来予測エンジン

2026年3月31日 · 1 分