OpenClaw + Ollama + Gemma4 でローカル無料AIエージェントを構築する

API課金なしで、ローカル環境にAIエージェントを無制限で運用できるセットアップ方法を紹介します。OpenClaw(エージェントインターフェース)+ Ollama(ローカルモデルサーバー)+ Gemma4(推論エンジン)の組み合わせにより、Telegram・Discord・LINEなどの既存チャンネルともシームレスに連携できます。 構成概要 コンポーネント 役割 OpenClaw AIエージェントのインターフェース・オーケストレーション Ollama ローカルLLMサーバー(モデルの管理・API提供) Gemma4 推論エンジン(Google製オープンモデル) この3つを組み合わせることで、クラウドAPIへの依存なしにフル機能のAIエージェントが動作します。 セットアップ手順 1. Ollama のインストール 1 2 3 4 5 # macOS / Linux curl -fsSL https://ollama.ai/install.sh | sh # Windows # https://ollama.ai から インストーラーをダウンロード 2. Gemma4 モデルの取得 1 ollama pull gemma4 3. OpenClaw のインストール 1 npm install -g openclaw 4. オンボーディングウィザードの実行 1 openclaw onboard ウィザードに従ってOllama接続設定とチャンネル連携(Telegram・Discord・LINEなど)を行います。 ...

2026年4月6日 · 1 分

AutoAgent — AIがAIを育てる自己改善エージェントOSSライブラリ

AIエージェントの性能を左右する「ハーネス」を、AI自身が自律的に改善するOSSライブラリ AutoAgent が公開されました。ハーネスとは、システムプロンプト・ツール・オーケストレーションから成るエージェントの構成一式のことです。24時間の自律最適化だけで、SpreadsheetBench と TerminalBench の2つのベンチマークで世界1位を達成しています。 AutoAgent とは AutoAgent は Kevin Gu 氏(Third Layer CTO)が開発したPython製OSSライブラリで、「AIがAIを育てる」仕組みを提供します。 従来、AIエージェントを実用レベルにするには、システムプロンプトの調整、ツールの追加、実行フローの設計といった「ハーネス設計」が不可欠でした。この作業は専門知識を要し、1つのハーネスに何日もかかることがあります。AutoAgent はこのハーネス設計をAI自身に任せることで、人間の手動チューニングを超える精度を実現しました。 GitHub: kevinrgu/autoagent ライセンス: MIT 言語: Python ベンチマーク結果 ベンチマーク スコア 順位 SpreadsheetBench 96.5% 1位 TerminalBench(GPT-5スコア) 55.1% 1位 他のエントリーはすべて人間が手動チューニングしたものです。AutoAgentだけが自律的にこのスコアに到達しました。 仕組み: メタエージェントとタスクエージェント AutoAgent は2つのAIの役割分担で動作します。 メタエージェント(コーチ役) ハーネスを改良することが仕事。タスクエージェントの失敗トレースを読み、プロンプト・ツール・オーケストレーションを書き換えます。 タスクエージェント(選手役) 実際のタスクをこなすことが仕事。メタエージェントが設計したハーネスに従って作業を実行します。 最適化ループ 人間がやることは、AutoAgent の設定ファイル program.md にゴール(成功の定義)を書くだけです。あとはAIが24時間、以下のループを回します: メタエージェントがハーネスを書き換える タスクエージェントがタスクを実行する スコアを測定する 失敗トレースを分析し「なぜ失敗したか」を特定する 改善なら採用、悪化なら元に戻す 1に戻る これを数千の並列サンドボックス(隔離された実行環境)で同時実行します。 なぜAIのほうが上手く改善できるのか — 「モデル共感」 人間はどうしても自分の感覚でAIを設計してしまいます。しかし、AIは人間とは異なる思考回路で動いています。 同じモデル同士(例: Claude × Claude)でペアリングすると、コーチ(メタエージェント)は選手(タスクエージェント)の「失敗パターン」を自分ごととして理解できます。同じ重みを共有しているため、内側のモデルがどう推論するかを正確に把握できるのです。 AutoAgent の開発チームはこれを 「モデル共感(model empathy)」 と呼んでいます。実際に、Claude メタエージェント + Claude タスクエージェントの組み合わせは、Claude メタエージェント + GPT タスクエージェントの組み合わせよりも高い性能を示しました。 ...

2026年4月5日 · 2 分

claw-code-local — Claude Code風のAIコーディングエージェントをローカルLLMで動かす

Claude Code ライクなターミナル AI コーディングエージェントを、Anthropic API なしでローカル LLM で動かせる「claw-code-local」が登場しました。Rust で実装された軽量・高速なツールで、Ollama や LM Studio など好みの LLM バックエンドを自由に選べます。 claw-code-local とは claw-code-local は、Claude Code のアーキテクチャをクリーンルーム方式(既存コードを参照せず仕様から独自に再実装する手法)で作られた「Claw Code」のフォークです。ローカル LLM や任意の OpenAI 互換エンドポイントに接続できるよう拡張されています。 オリジナルの Claw Code は Rust で書かれたマルチプロバイダー API レイヤーを持っていましたが、実際のバイナリにはその機能が組み込まれていませんでした。claw-code-local はこの部分を修正し、Ollama、LM Studio、OpenAI、xAI など様々なプロバイダーに接続できるようにしています。 主な特徴 ローカル LLM 対応: Ollama、LM Studio、その他 OpenAI 互換エンドポイントで動作 Rust 実装: 軽量・高速なバイナリ マルチプラットフォーム: Windows、Linux、macOS に対応 コストゼロ: ローカル LLM を使えば API 費用が不要 プライバシー保護: コードが外部サーバーに送信されないため、機密情報の漏洩リスクを低減 セットアップ手順 1. リポジトリのクローンとビルド 1 2 3 git clone https://github.com/codetwentyfive/claw-code-local.git cd claw-code-local/rust cargo build -p rusty-claude-cli --release ビルド後のバイナリは以下に生成されます: ...

2026年4月5日 · 2 分

Karpathy の LLM Wiki — AIエージェントが育てる個人ナレッジベースという新パターン

Andrej Karpathy が GitHub に「ファイル1つ」をアップロードし、10時間で星1,700超・フォーク300超を記録した。コードでもアプリでもない、マークダウン文書1枚だ。名前は llm-wiki.md。この文書が提案するのは、LLM エージェントに個人ナレッジベース(Wiki)を継続的に構築・保守させるというパターンだ。 RAG の限界 — 毎回ゼロから読み直す問題 現在、多くの人が AI に対してやっていることは「ファイルを渡して要約させる」「質問のたびにドキュメントを検索させる」の繰り返しだ。これは RAG(Retrieval-Augmented Generation: 検索で補強した文章生成)と呼ばれる手法で、技術的には問題ない。 しかし Karpathy はこの方式を「毎日同じ本を初めて読む人に質問を投げるようなもの」と表現する。AI は昨日読んだ内容を今日忘れる。蓄積がない。5つの文書を横断して初めてわかる微妙な問いには、毎回断片をかき集めて一からつなぎ合わせる必要がある。 LLM Wiki のアイデア — 知識を「積み上げる」 Karpathy が提案するのは、AI にドキュメントを読ませるたびにWiki を更新させるというアプローチだ。 新しい資料を投入するたびに、AI は: 要約ページを作成する 既存のエンティティページ・概念ページを更新する 相互参照リンクを張る 矛盾があればフラグを立てる インデックスとログを更新する つまり、知識は一度コンパイルされて保持され、クエリのたびに再導出されるのではない。Wiki は永続的で複利的に成長するアーティファクトになる。 三層構造 LLM Wiki のアーキテクチャはシンプルな三層構造だ。 1. Raw Sources(原本資料) 論文、記事、メモなど、ユーザーがキュレーションした元資料。AI はこれを読むだけで、絶対に変更しない。これが信頼できる唯一の情報源(source of truth)となる。 2. Wiki(知識ベース) AI が生成・保守するマークダウンファイル群。要約ページ、エンティティページ、概念ページ、比較ページ、概要、統合的な考察など。ユーザーが読み、AI が書く。 3. Schema(設定) AI に「この Wiki をどう管理するか」を伝える設定ファイル。Karpathy は AI エージェントの設定ファイル(CLAUDE.md や AGENTS.md)に置くことを推奨している。Wiki の構造、命名規則、取り込みワークフロー、回答フォーマットなどを定義する。 三つの基本操作 操作 内容 Ingest(取り込み) 新しい資料を投入し、AI に読ませて Wiki を更新させる。1つの資料で10〜15ページが更新されることもある Query(質問) Wiki に対して質問する。AI はインデックスから関連ページを探し、統合的に回答する。良い回答は新しい Wiki ページとして保存できる Lint(保守) 定期的に Wiki の健全性をチェックする。矛盾、古い記述、孤立ページ、欠落リンクなどを検出・修正する 「アイデアファイル」という新しい共有形態 この llm-wiki.md が爆発的に広まった理由について、Karpathy 自身がこう述べている: ...

2026年4月5日 · 1 分

Anthropic Conway とは — 24時間稼働する常駐型AIエージェントの全貌

Anthropic が開発中の常駐型AIエージェント「Conway」のリーク情報が話題になっています。従来のチャットベースのやり取りとは異なり、24時間バックグラウンドで稼働し続けます。いわば「AI従業員」として機能する次世代エージェント環境です。 Conway の概要 Conway は、Anthropic が内部テスト中の常駐型(Always-On)AIエージェント環境です。TestingCatalog が 2026年4月にスクープし、その存在が明らかになりました。ユーザーのシステムやブラウザ上にサイドバーとして常駐し、ユーザーが操作していなくても裏側で継続的にタスクを実行できます。 Claude がこれまで提供してきた「対話型アシスタント」から、「自律的に業務を遂行するエージェント」への進化を示すプロダクトと位置づけられています。 主な特徴 Always-On(常時稼働) Conway の最大の特徴は、ユーザーが待機していなくてもバックグラウンドで常に稼働し続ける点です。従来の Claude のようにプロンプトを送って応答を待つワンショット型ではなく、永続的なプロセスとして動作します。 Webhook 連携 外部アプリケーションからの通知をトリガーに自動実行が可能です。Webhook セクションでは、外部サービスがインスタンスを起動するためのパブリック URL が提供されます。サービスレベルのトグルでトリガーのオン・オフを制御できます。例えば以下のようなユースケースが考えられます: メール受信時に自動で要約・分類 GitHub の Issue 作成をトリガーに調査を開始 Slack のメンション通知をきっかけに対応を自動化 ブラウザ操作と Claude Code 連携 Conway は Chrome ブラウザの操作が可能で、Web上のマルチステップタスクを自律的に処理できます。また、Claude Code(リーク情報では「Epitaxy」というコードネームも言及)との連携も備えており、コーディングタスクも自動化の範囲に含まれます。 独自拡張規格「.cnw」 Anthropic は Extensions エリアを準備しており、ユーザーがカスタムツール、UIタブ、コンテキストハンドラをインストールできるようになります。.cnw.zip ファイルのドロップに対応した独自の拡張パッケージ規格が用意されており、サードパーティのアドオンフレームワークとしての展開が見込まれます。 技術的なアーキテクチャ リーク情報から判明している Conway の構成要素は以下の通りです: コンポーネント 説明 独立 UI インスタンス サイドバー形式で常駐 Webhook エンドポイント 外部サービスからのイベント受信 ブラウザ操作 Chrome を通じた Web 操作 Claude Code 連携 コーディングタスクの自動実行 通知システム タスク完了等の通知送信 Extensions .cnw 形式のプラグイン機構 既存ツールとの違い 現在の Claude Desktop や Claude Code は、いずれもユーザーの入力をトリガーとして動作する対話型ツールです。Conway はこれらとは異なり、外部からのイベント(通知やスケジュール)をトリガーに自律的に動くエージェントとして位置づけられます。 ...

2026年4月3日 · 1 分

Claude Code 開発で機能が静かにデグレードする — 出力品質テストで防ぐ方法

Claude Code でリファクタリングや新機能追加を行うと、既存機能の出力品質が意図せず劣化することがある。機能は正しく動いておりテストも通るが、ユーザーが期待する情報が出力から消えている。この記事では、実際に遭遇した「静かなデグレード」の事例と、出力仕様テストによる対策を紹介する。 何が起きたか 日本株・BTC のトレーディングシステムで、日次の投資提案を GitHub Issues に自動投稿している。このシステムにポートフォリオ統合最適化機能を追加した際、以下の流れで問題が発生した。 統合最適化機能を追加。成功時は 1 つの統合 Issue に「市場概要」「総評」を含む詳細な分析を出力する設計 失敗時のフォールバックとして、銘柄別 Issue + サマリー Issue を作成するパスも実装 テスト全パス、PR マージ ある日、ポートフォリオ最適化が失敗しフォールバックが発動 サマリー Issue を見るとポートフォリオ一覧とリンクテーブルだけ — 「結局ホールドすべき?買うべき?」がわからない 統合パスには存在する「銘柄横断の総評」が、フォールバックパスでは最初から実装されていなかった。しかしテストは両方とも通っていた。 サマリー Issue の Before / After デグレード状態(修正前): 1 2 3 4 5 6 7 # 2026-04-03 総合投資評価 ## 現在のポートフォリオ (ポジション一覧テーブル) ## 銘柄別計画 (リンクテーブル) ## 子課題チェックリスト (チェックボックス一覧) 修正後: ...

2026年4月3日 · 3 分

LLMで株式投資戦略を自動生成 — 松尾研のフィードバック設計実験が示す「モデル選択」の重要性

東京大学・松尾研究所の研究グループが、LLM(大規模言語モデル)に株式投資戦略を自動生成・改善させる実験を行い、その結果を人工知能学会 金融情報学研究会(SIG-FIN-036)で発表しました。8つの LLM と3種類のフィードバック条件を組み合わせた72パターンの実験から、「フィードバックの設計よりモデル選択のほうが戦略改善に大きく影響する」という知見が得られています。 研究の背景 LLM をクオンツ投資(数理モデルに基づく定量的投資手法)に活用する研究は近年急速に増えていますが、「LLM に過去の成績をどう伝えれば戦略をうまく改善できるか」というフィードバック設計の体系的な検証はほとんど行われていませんでした。本研究はこのギャップを埋めるものです。 実験フレームワーク 研究では、以下のような反復的な戦略改善ループを構築しています。 LLM に初期の投資戦略(Python コード)を生成させる 過去データでバックテスト(シミュレーション)を実行する シミュレーション結果をフィードバックとして LLM に提示する LLM が結果を分析し、戦略コードを修正する 2〜4 を繰り返して戦略を改善する 対象データ 銘柄: TOPIX 500(金融セクターを除く) 期間: 2014〜2022年の日次データ 特徴量: 株価、出来高、ファンダメンタル指標、マクロ指標など80種類 フィードバックの3条件 フィードバックに含める情報を2つの観点(情報の範囲と提示形式)で段階的に拡張し、3つの条件を比較しています。 条件 情報の範囲 提示形式 条件A 基本的な損益指標のみ テキストのみ 条件B 基本指標 + 予測精度・リスク構造の指標 テキストのみ 条件C 基本指標 + 予測精度・リスク構造の指標 テキスト + グラフ画像 使用モデル(8種・3ファミリー) GPT 系(OpenAI): GPT-5 を含む3モデル Gemini 系(Google): Gemini 3 Flash を含む2モデル Claude 系(Anthropic): Claude 4.5 Sonnet を含む3モデル 主要な結果: モデルごとの「性格」が成績を左右 実験の最大の発見は、フィードバック条件の違いよりもモデルの違いがパフォーマンスに大きく影響したことです。各モデルファミリーには明確な挙動の傾向が見られました。 Claude 系: 安定的・漸進的な改善 Claude 系モデル(特に Claude 4.5 Sonnet)は、既存の戦略コードの構造を保ちつつ局所的な修正を積み上げる傾向がありました。この「コツコツ型」のアプローチが安定的な改善につながり、最終的なパフォーマンスでも優れた結果を示しています。 ...

2026年4月3日 · 1 分

Onyx(旧 Danswer)完全ガイド — 無料で使えるオープンソース AI プラットフォーム

Onyx(旧 Danswer)は、社内のドキュメント・アプリ・人材をまとめて繋ぎ、どんな LLM とも連携できるオープンソースの AI プラットフォームです。Community Edition(CE)は MIT ライセンスで完全無料。セルフホストできるため、データを外部に出さずに AI チャットや RAG、エージェント機能を利用できます。 Onyx とは Onyx は企業向け AI アシスタント&検索プラットフォームです。Slack、GitHub、Confluence、Google Drive など 50 以上のコネクタで社内ナレッジを統合し、自然言語で質問するだけで必要な情報を引き出せます。 GitHub リポジトリ(onyx-dot-app/onyx)のスター数は 22,000 超で、活発に開発が続いています。 主な機能 チャット&RAG ハイブリッド検索: ベクトル検索とキーワード検索を組み合わせた高精度な情報検索 Agentic RAG: AI エージェントが検索クエリの生成・評価・再検索を自律的に繰り返し、複数ステップで情報を収集 Deep Research: 多段階のリサーチフローで詳細なレポートを生成 エージェント&ツール カスタムエージェント: 固有の指示・知識・アクションを持つ AI エージェントを構築可能 Web 検索: リアルタイムの Web 情報を取得 コード実行: サンドボックス内でコードを実行し、データ分析やグラフ描画が可能 画像生成: プロンプトに基づいた画像生成 音声モード: テキスト読み上げ&音声入力に対応 コネクタ(50 以上) Slack、GitHub、Confluence、Notion、Google Drive、Jira、Linear など主要サービスと連携。MCP(Model Context Protocol)経由のカスタムコネクタにも対応しています。 エディション比較 項目 Community Edition (CE) Enterprise Edition (EE) ライセンス MIT(無料) 商用ライセンス チャット・RAG・エージェント ✅ ✅ SSO(OIDC / SAML) — ✅ エアギャップ環境 — ✅ サポート コミュニティ 専用サポート Cloud 版も提供されており、セルフホストなしで試用できます。ビジネスプランは 1 ユーザーあたり月額 $16〜。 ...

2026年4月3日 · 2 分

AI UGC動画広告ツール徹底比較 — Arcads・Creatify・HeyGen・Synthesia の選び方

AIで動画広告を自動生成するツールが急増している。中でも UGC(ユーザー生成コンテンツ)スタイルの広告動画は、SNS 広告のパフォーマンスを左右する重要な要素だ。本記事では、この領域の主要4ツール — Arcads、Creatify、HeyGen、Synthesia — を機能・料金・API・ユースケースの観点から徹底比較する。 4ツールの概要 Arcads — UGC広告のリアルさで圧倒 Arcads(arcads.ai)はフランス発のスタートアップで、UGC スタイルの動画広告生成に特化している。1,000以上のAIアクターを搭載し、自然な表情・ジェスチャー・口の動きを再現する。30秒の商品テスティモニアル(体験談)動画を比較した際、Arcads のアバターは目線の動き、手の強調、感情表現の点で他ツールを上回るという評価が多い。 項目 内容 設立 2024年 創業者 Dylan Fournier、Romain Torres 資金調達 シード 1,600万ドル(Eurazeo リード) ARR 18ヶ月で0 → 1,300万ドル 顧客数 6,000社以上 Creatify — URL貼り付けで動画を自動生成 Creatify(creatify.ai)は、商品ページの URL を貼り付けるだけで動画広告を自動生成する点が最大の特徴だ。AIが商品情報をスクレイピングし、台本生成から動画制作までを一気通貫で行う。Shopify ストアで50以上の SKU(商品管理単位)を扱うような EC事業者にとって、圧倒的な効率化を実現する。 項目 内容 設立 2023年 創業者 Yinan Na、Ledell Wu(元 Meta FAIR)、Xin Zhou 資金調達 Series A 1,550万ドル(WndrCo / Kindred Ventures)、累計2,300万ドル ARR 約900万ドル 顧客数 10,000チーム以上(Alibaba、Binance 等) HeyGen — 企業向け多言語動画の王者 HeyGen(heygen.com)は、企業向けの多言語動画プラットフォームとして最も成熟している。175以上の言語に対応し、既存動画の翻訳・吹き替えもリップシンク付きで行える。研修動画やプロダクトデモなど、洗練された映像が求められる場面で強い。 項目 内容 設立 2020年 創業者 Joshua Xu、Wayne Liang 資金調達 Series A 6,000万ドル(Benchmark / Thrive Capital)、評価額5億ドル ARR 約9,500万ドル(2025年9月時点) 特記 Q2 2023 に黒字化達成 Synthesia — 業界最古参、エンタープライズの標準 Synthesia(synthesia.io)は AI動画生成の先駆者であり、50,000以上のチームに導入されている。2026年1月に Series E で2億ドルを調達し、評価額は40億ドルに到達した。企業向け研修・教育コンテンツの領域では事実上のスタンダードだ。 ...

2026年4月2日 · 3 分

Arcads 完全ガイド — AIで UGC 動画広告を大量生成するプラットフォーム

AI による動画広告の自動生成が急速に進化している。その中でも Arcads は「UGC スタイルの広告動画」に特化したプラットフォームとして注目を集めている。フランス発のスタートアップが18ヶ月で売上1,300万ドルを達成し、シードラウンドで1,600万ドルを調達した背景には何があるのか。本記事では Arcads の機能、使い方、料金、活用事例、競合比較までを網羅的に解説する。 Arcads とは Arcads(arcads.ai)は、テキストの広告台本から UGC(User Generated Content = 一般ユーザーが撮影したような自然な見た目のコンテンツ)スタイルの動画広告を AI で自動生成するプラットフォームだ。2024年に Dylan Fournier 氏と Romain Torres 氏がフランスで創業した。 従来、UGC 風の動画広告を制作するには、クリエイターへの依頼(1本80〜200ドル以上)や撮影・編集が必要だった。Arcads はこのプロセスを「台本入力 → AIアクター選択 → 動画生成」の3ステップに短縮し、1本あたり約11ドルで動画を生成できる。レンダリング時間は約10分だ。 会社の概要 項目 内容 設立 2024年 創業者 Dylan Fournier、Romain Torres 本拠地 フランス(サンフランシスコにも拠点拡大中) 資金調達 シードラウンド 1,600万ドル(2025年12月) 投資家 Eurazeo(リード)、Alpha Intelligence Capital、Sequoia Scout 顧客数 6,000社以上 月間生成数 10万アセット以上 売上推移 18ヶ月で0 → 1,300万ドル 主要機能 AIアクターライブラリ 1,000以上のプリセットAIアクターを搭載。実在の人間をベースにトレーニングされており、自然な表情・ジェスチャー・口の動きを再現する。性別・年齢・人種・撮影環境(自宅・オフィスなど)でフィルタリングして、ターゲット層に合ったアクターを選べる。 カスタムAIアバター プリセットだけでなく、独自のAIアバターも生成可能。アバターに商品を持たせたり、アプリ画面を表示させたり、ブランドの服を着せたりするカスタマイズにも対応する。 感情・表現コントロール テキスト指示で「驚き」「興奮」「親しみ」などの感情表現をコントロールできる。Speech-to-Speech 機能を使えば、自分の感情的な語り口をそのまま AIアクターに反映させることも可能だ。 バッチ生成 Arcads の最大の武器。1つの台本から、アクター・フック・CTA・背景を変えて数十〜数百のバリエーションを一括生成できる。パフォーマンスマーケターにとっては、従来の手法では資金的に不可能だった規模のA/Bテストを実現できる。 多言語対応 30以上の言語に対応し、正確な翻訳・吹き替えが可能。グローバルに広告を展開する際の多言語クリエイティブ制作を効率化する。 ...

2026年4月2日 · 2 分