Second Me — AI に「自分の分身」を持つ時代と OpenClaw との本質的な違い
前回の記事で OpenClaw による 13 体 AI チーム構築を紹介しました。OpenClaw では SOUL.md というファイルでエージェントの「人格」を定義しますが、これは本当に「自分の分身」と呼べるのでしょうか。Second Me というプロジェクトは、まったく異なるアプローチで「AI による自分の分身」を実現しようとしています。
SOUL.md の限界 — 「指示書」は「分身」ではない
OpenClaw の SOUL.md は Markdown で書かれた設定ファイルです。エージェントの名前、性格、役割、制約を自然言語で記述します。
| |
これは強力な仕組みですが、あくまで外から与える指示書です。「営業エージェントをこう振る舞わせたい」という設計者の意図を反映したものであり、「この人ならどう考えるか」を再現するものではありません。
Second Me とは何か
Second Me は、Mindverse 社が開発したオープンソースの「AI アイデンティティシステム」です。GitHub で 15,000 以上のスターを獲得しています。
コンセプトは明確です。「自分の思考パターン・価値観・記憶を学習した AI の分身を、ローカルマシン上に構築する」 というものです。
一言でいうと
Second Me は AI モデルをゼロから作るわけではありません。汎用のベースモデル(Qwen2.5)を、自分の行動履歴・文章・会話ログで微調整(ファインチューニング)して「自分色に染める」 という仕組みです。
graph LR
DATA["自分のデータ<br/>文章・会話ログ・ブログ"] --> SYNTH["Data Synthesis<br/>(OpenAI API で構造化)"]
SYNTH --> FINETUNE["ファインチューニング"]
BASE["汎用ベースモデル<br/>Qwen2.5"] --> FINETUNE
FINETUNE --> MY_MODEL["自分専用モデル<br/>(重みが自分色に変化)"]
style DATA fill:#e74c3c,color:#fff
style SYNTH fill:#f39c12,color:#fff
style BASE fill:#95a5a6,color:#fff
style FINETUNE fill:#3498db,color:#fff
style MY_MODEL fill:#2ecc71,color:#fff
つまり、料理に例えると「レシピをゼロから開発する」のではなく、「既存の万能調味料(汎用 LLM)に自分の好みの隠し味を加える」イメージです。ベースモデルが持つ言語能力はそのまま活かしつつ、応答のスタイル・判断基準・知識の優先順位が「自分らしく」なります。
graph LR
subgraph 従来のAI
USER1["ユーザー"] -->|質問| GENERIC["汎用 LLM"]
GENERIC -->|汎用的な回答| USER1
end
subgraph Second Me
USER2["ユーザー"] -->|記憶・思考を学習| TWIN["AI 分身"]
TWIN -->|その人らしい回答| WORLD["外部サービス・他者"]
end
style GENERIC fill:#95a5a6,color:#fff
style TWIN fill:#e74c3c,color:#fff
構築の 4 ステップ
Second Me の AI 分身は、以下のプロセスで構築されます。
| ステップ | 内容 | 所要時間 |
|---|---|---|
| 1. アイデンティティ定義 | 自分のプロフィールを 220 文字以内で記述 | 数分 |
| 2. メモリアップロード | 過去の文章、ブログ記事、会話ログ等を投入 | 数十分 |
| 3. トレーニング | Data Synthesis + ローカル LLM の微調整 | 20 分〜1.5 時間 |
| 4. ネットワーク接続 | 分散ネットワークへの参加(任意) | 数分 |
ステップ 3 のトレーニングが核心です。まず OpenAI API で投入データを構造化・拡張(Data Synthesis)し、その結果を使ってローカルの Qwen2.5 ベースモデルの重みを微調整します。モデルの重み自体が変わるため、単にプロンプトで指示するのとは異なり、応答の根底にある「考え方」が変化します。
技術的な仕組み
Hierarchical Memory Modeling(HMM)
Second Me の中核技術は、3 層の階層的記憶モデルです。
graph TD
L0["L0: 短期記憶<br/>直近の対話コンテキスト"]
L1["L1: 中期記憶<br/>社会的関係・趣味嗜好の再構成"]
L2["L2: 長期記憶<br/>価値観・思考パターン・人生経験"]
L0 --> L1
L1 --> L2
INPUT["ユーザーの記憶データ"] --> L0
style L0 fill:#3498db,color:#fff
style L1 fill:#2980b9,color:#fff
style L2 fill:#1a5276,color:#fff
style INPUT fill:#ecf0f1,stroke:#2c3e50
- L0(短期記憶): 直近の対話から即座にパターンを認識します
- L1(中期記憶): 人間関係や興味分野を再構成し、文脈を理解します
- L2(長期記憶): 価値観、思考様式、人生の重要な出来事を保持します
この 3 層構造により、「昨日の会話の文脈」から「その人の根本的な価値観」まで、異なる時間軸の記憶を統合して応答を生成します。
Me-Alignment アルゴリズム
汎用 LLM は万人に合わせた応答を生成しますが、Me-Alignment は特定の一人に合わせた応答を生成するための技術です。強化学習を用いて、ユーザーの思考パターン・文体・判断基準を学習します。
Mindverse の主張によると、従来の RAG(Retrieval-Augmented Generation)と比較して 37% 高いユーザー理解精度を達成しています。
なぜベースモデルに Qwen2.5 が選ばれたのか
Second Me は Qwen2.5 をベースモデルとして採用しています。公式ドキュメントに選定理由の明記はありませんが、技術的な文脈から合理的な理由が推測できます。
最大の理由は、小型モデルのラインナップの細かさです。 Second Me はローカルマシンで微調整・実行する必要があるため、小型モデルの性能が決定的に重要になります。
| モデル | 最小サイズ | サイズ展開 |
|---|---|---|
| Qwen2.5 | 0.5B | 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B |
| Llama 3.2 | 1B | 1B, 3B(小型は 2 種のみ) |
| Phi-3 | 3.8B | 3.8B, 14B |
| Gemma 2 | 2B | 2B, 9B, 27B |
8GB メモリの Mac でも動作させるには 0.5B クラスが必要です。この領域では Qwen2.5 が事実上唯一の選択肢になります。
さらに、小型でもベンチマーク性能が高いことも重要です。Qwen2.5-0.5B は Gemma2-2.6B(5 倍のサイズ)を数学・コーディングタスクで上回り、7B モデルも Llama3.1-8B や Gemma2-9B を多くのベンチマークで上回っています。「サイズあたりの性能」が最も高いモデルです。
graph LR
subgraph Qwen2.5["Qwen2.5 の強み"]
Q05["0.5B<br/>8GB Mac で動作"] --> Q15["1.5B"] --> Q3["3B"] --> Q7["7B"]
end
subgraph 他モデル["他モデルの最小サイズ"]
LLAMA["Llama 3.2<br/>最小 1B"]
PHI["Phi-3<br/>最小 3.8B"]
GEMMA["Gemma 2<br/>最小 2B"]
end
style Q05 fill:#2ecc71,color:#fff
style Q15 fill:#27ae60,color:#fff
style Q3 fill:#229954,color:#fff
style Q7 fill:#1e8449,color:#fff
style LLAMA fill:#95a5a6,color:#fff
style PHI fill:#95a5a6,color:#fff
style GEMMA fill:#95a5a6,color:#fff
その他の選定要因として以下が考えられます。
- LoRA 微調整との相性: Second Me は LoRA(Low-Rank Adaptation)+ 4bit 量子化で微調整を行います。Qwen2.5 はこの手法に効率的に対応しています
- 多言語対応: Alibaba が 18 兆トークンで事前学習しており、多言語での思考パターン再現に有利です
- 開発元の親和性: Second Me の開発元 Mindverse は中国企業であり、同じく Alibaba が開発する Qwen2.5 とはエコシステム内でのライセンス・技術サポートの親和性が高いと考えられます
要するに、「ローカルで微調整して実行する」という Second Me の要件に対して、最小 0.5B から細かく揃い、小型でも高性能な Qwen2.5 が最も合理的な選択だったということです。
Second Me と OpenClaw の本質的な違い
graph TB
subgraph OpenClaw["OpenClaw(SOUL.md)"]
DESIGNER["設計者"] -->|人格を定義| SOUL["SOUL.md"]
SOUL -->|指示に従う| AGENT["エージェント"]
AGENT -->|タスクを実行| TASK["業務処理"]
end
subgraph SecondMe["Second Me"]
USER["ユーザー本人"] -->|記憶・思考を提供| HMM["HMM + Me-Alignment"]
HMM -->|本人を再現| TWIN2["AI 分身"]
TWIN2 -->|本人として振る舞う| WORLD2["外部とのやりとり"]
end
style DESIGNER fill:#f39c12,color:#fff
style USER fill:#e74c3c,color:#fff
style SOUL fill:#f5b041,color:#fff
style HMM fill:#ec7063,color:#fff
style AGENT fill:#85c1e9,color:#fff
style TWIN2 fill:#85c1e9,color:#fff
| 観点 | OpenClaw(SOUL.md) | Second Me |
|---|---|---|
| 目的 | エージェントに役割を与える | ユーザー自身の分身を作る |
| 定義方法 | 人間が Markdown で手書き | ユーザーデータからの自動学習 |
| 主語 | エージェントが「何者であるべきか」 | ユーザーが「どういう人間か」 |
| 技術基盤 | 静的プロンプト + LLM API | HMM + Me-Alignment + ローカル LLM |
| モデルの扱い | 汎用モデルをそのまま使用(プロンプトで制御) | 汎用モデルを自分のデータで微調整(重みが変化) |
| 進化 | 基本的に固定 | 対話を通じて継続的に学習 |
| 実行環境 | クラウド LLM API 呼び出し | ローカルで微調整済みモデルを実行 |
| プライバシー | エージェント設定(機密度低) | 個人の思考パターン(機密度高) |
| 適した用途 | 業務分担・チーム構築 | 自分の代理としての意思決定 |
一言でいえば、OpenClaw は「秘書を雇う」、Second Me は「分身の術を使う」 です。
Second Me Protocol(SMP)— 分身同士のネットワーク
Second Me の野心的な構想が、分散型 AI アイデンティティネットワークです。
graph TD
A_ME["Aさんの分身"] <-->|P2P| B_ME["Bさんの分身"]
B_ME <-->|P2P| C_ME["Cさんの分身"]
A_ME <-->|P2P| C_ME
A_ME --> A_APP["Aさん向け<br/>パーソナライズ"]
B_ME --> B_APP["Bさん向け<br/>パーソナライズ"]
C_ME --> C_APP["Cさん向け<br/>パーソナライズ"]
style A_ME fill:#e74c3c,color:#fff
style B_ME fill:#3498db,color:#fff
style C_ME fill:#2ecc71,color:#fff
Second Me Protocol(SMP)は、各ユーザーの AI 分身が P2P で通信し、協調するための分散型フレームワークです。重要な設計原則は以下の通りです。
- 1 対 1 対応: すべての AI アイデンティティは実在の人間と紐づく(ボットや架空のペルソナは排除)
- データ主権: 個人情報は本人のデバイスに留まり、明示的な同意なしに共有されない
- 選択的共有: どの情報をどの相手に公開するかをユーザーが制御する
これにより「自分が不在でも、AI 分身が 24 時間自分の代わりを務める」世界を目指しています。
MCP による相互接続 — 分断を超えて
興味深いことに、Second Me と OpenClaw はどちらも MCP(Model Context Protocol) をサポートしています。
Second Me は MCP サーバーとして自身の AI アイデンティティを公開できます。つまり、Claude Code や OpenClaw といった MCP クライアントから「あなたの分身」を呼び出せるようになります。
graph LR
SECOND["Second Me<br/>(MCP サーバー)"]
CLAUDE["Claude Code<br/>(MCP クライアント)"]
OPENCLAW["OpenClaw<br/>(MCP クライアント)"]
ZAPIER["Zapier<br/>(MCP クライアント)"]
CLAUDE -->|MCP| SECOND
OPENCLAW -->|MCP| SECOND
ZAPIER -->|MCP| SECOND
style SECOND fill:#e74c3c,color:#fff
style CLAUDE fill:#3498db,color:#fff
style OPENCLAW fill:#2ecc71,color:#fff
style ZAPIER fill:#f39c12,color:#fff
この統合により、以下のようなシナリオが可能になります。
- OpenClaw の営業エージェントが、提案メールを書く際に Second Me を呼び出して「自分らしい文体」で下書きする
- Claude Code でコードレビューする際、Second Me のコーディング哲学を参照する
- 自動化ツールが意思決定を求められた際、Second Me に「本人ならどう判断するか」を問い合わせる
現時点での課題
Second Me はビジョンは壮大ですが、現時点では以下の課題があります。
ローカル LLM の性能限界
実際に試した日本語ユーザーのレポートでは、ロールプレイ機能の応答品質は「ちょっと微妙」と評価されています。ローカルで動作する Qwen2.5(0.5B〜3B パラメータ)の能力がボトルネックになっています。
| メモリ | Docker(Mac) | 推奨モデルサイズ |
|---|---|---|
| 8GB | 〜0.4B | 実用には不十分 |
| 16GB | 〜0.5B | 最低限 |
| 32GB | 〜1.2B | 基本的な動作 |
0.5B 未満のモデルでは性能が限定的であり、「ユーザーの端末性能にめちゃめちゃ依存している」という指摘があります。
セットアップの複雑さ
Python のバージョン互換性(3.13 以上は非対応)、chroma-hnswlib のビルドエラーなど、技術的なハードルが報告されています。
日本語対応
アイデンティティ定義が英語入力のみ対応しており、日本語での思考パターン再現には制約があります。
AI エージェントの 2 つの方向性
OpenClaw と Second Me は、AI エージェントの発展における 2 つの異なる方向性を示しています。
graph TD
ROOT["AI エージェント"] --> TOOL["道具としての AI<br/>(タスク実行型)"]
ROOT --> IDENTITY["分身としての AI<br/>(アイデンティティ型)"]
TOOL --> OPENCLAW["OpenClaw<br/>SOUL.md で役割定義"]
TOOL --> CLAUDE["Claude Code<br/>CLAUDE.md で制約定義"]
IDENTITY --> SECONDME["Second Me<br/>HMM で本人を再現"]
IDENTITY --> FUTURE["今後の発展<br/>MCP で相互接続"]
OPENCLAW -.->|MCP 統合| FUTURE
SECONDME -.->|MCP 統合| FUTURE
style ROOT fill:#2c3e50,color:#fff
style TOOL fill:#3498db,color:#fff
style IDENTITY fill:#e74c3c,color:#fff
style OPENCLAW fill:#85c1e9,color:#fff
style CLAUDE fill:#85c1e9,color:#fff
style SECONDME fill:#ec7063,color:#fff
style FUTURE fill:#f39c12,color:#fff
- 道具としての AI: OpenClaw や Claude Code のように、エージェントに明確な役割を与えてタスクを実行させるアプローチです。SOUL.md や CLAUDE.md で「何をさせるか」を定義します
- 分身としての AI: Second Me のように、ユーザー自身の思考・価値観を再現し、「本人の代わり」として振る舞うアプローチです
現時点では「道具としての AI」が実用性で先行していますが、MCP による相互接続が進めば、「道具が本人の判断基準を参照する」ハイブリッドな形態が主流になる可能性があります。
まとめ
- SOUL.md は「指示書」、Second Me は「分身」 です。前者はエージェントの振る舞いをプロンプトで外から定義し、後者はモデルの重み自体を微調整してユーザーの思考パターンを内部から再現します
- Second Me は AI モデルをゼロから作るのではなく、汎用モデル(Qwen2.5)を自分のデータでファインチューニングします。プロンプトによる制御とは異なり、応答の根底にある「考え方」が変化します
- Second Me は 3 層の階層的記憶モデル(HMM) で、短期記憶から長期的な価値観まで統合的に学習します
- Me-Alignment アルゴリズム により、RAG 比 37% 高いユーザー理解精度を実現しています
- Second Me Protocol(SMP) は、AI 分身同士が P2P で協調する分散型ネットワークを構想しています
- MCP 対応により OpenClaw や Claude Code との統合が可能 になり、「道具としての AI」と「分身としての AI」の融合が始まっています
- 現時点ではローカル LLM の性能がボトルネック であり、日本語環境での実用性には課題が残ります
- AI エージェントは「道具型」と「アイデンティティ型」の 2 方向に分岐 しつつあり、MCP で再統合される未来が見えています