Second Me — AI に「自分の分身」を持つ時代と OpenClaw との本質的な違い

前回の記事で OpenClaw による 13 体 AI チーム構築を紹介しました。OpenClaw では SOUL.md というファイルでエージェントの「人格」を定義しますが、これは本当に「自分の分身」と呼べるのでしょうか。Second Me というプロジェクトは、まったく異なるアプローチで「AI による自分の分身」を実現しようとしています。

SOUL.md の限界 — 「指示書」は「分身」ではない

OpenClaw の SOUL.md は Markdown で書かれた設定ファイルです。エージェントの名前、性格、役割、制約を自然言語で記述します。

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
---
name: sales-agent
model: claude-sonnet-4-6
---

あなたは営業チームの一員です。丁寧に話してください。

## 役割
- リード情報の整理と優先順位付け
- 提案メールの下書き作成

これは強力な仕組みですが、あくまで外から与える指示書です。「営業エージェントをこう振る舞わせたい」という設計者の意図を反映したものであり、「この人ならどう考えるか」を再現するものではありません。

Second Me とは何か

Second Me は、Mindverse 社が開発したオープンソースの「AI アイデンティティシステム」です。GitHub で 15,000 以上のスターを獲得しています。

コンセプトは明確です。「自分の思考パターン・価値観・記憶を学習した AI の分身を、ローカルマシン上に構築する」 というものです。

一言でいうと

Second Me は AI モデルをゼロから作るわけではありません。汎用のベースモデル(Qwen2.5)を、自分の行動履歴・文章・会話ログで微調整(ファインチューニング)して「自分色に染める」 という仕組みです。

graph LR
    DATA["自分のデータ<br/>文章・会話ログ・ブログ"] --> SYNTH["Data Synthesis<br/>(OpenAI API で構造化)"]
    SYNTH --> FINETUNE["ファインチューニング"]
    BASE["汎用ベースモデル<br/>Qwen2.5"] --> FINETUNE
    FINETUNE --> MY_MODEL["自分専用モデル<br/>(重みが自分色に変化)"]

    style DATA fill:#e74c3c,color:#fff
    style SYNTH fill:#f39c12,color:#fff
    style BASE fill:#95a5a6,color:#fff
    style FINETUNE fill:#3498db,color:#fff
    style MY_MODEL fill:#2ecc71,color:#fff

つまり、料理に例えると「レシピをゼロから開発する」のではなく、「既存の万能調味料(汎用 LLM)に自分の好みの隠し味を加える」イメージです。ベースモデルが持つ言語能力はそのまま活かしつつ、応答のスタイル・判断基準・知識の優先順位が「自分らしく」なります。

graph LR
    subgraph 従来のAI
        USER1["ユーザー"] -->|質問| GENERIC["汎用 LLM"]
        GENERIC -->|汎用的な回答| USER1
    end

    subgraph Second Me
        USER2["ユーザー"] -->|記憶・思考を学習| TWIN["AI 分身"]
        TWIN -->|その人らしい回答| WORLD["外部サービス・他者"]
    end

    style GENERIC fill:#95a5a6,color:#fff
    style TWIN fill:#e74c3c,color:#fff

構築の 4 ステップ

Second Me の AI 分身は、以下のプロセスで構築されます。

ステップ内容所要時間
1. アイデンティティ定義自分のプロフィールを 220 文字以内で記述数分
2. メモリアップロード過去の文章、ブログ記事、会話ログ等を投入数十分
3. トレーニングData Synthesis + ローカル LLM の微調整20 分〜1.5 時間
4. ネットワーク接続分散ネットワークへの参加(任意)数分

ステップ 3 のトレーニングが核心です。まず OpenAI API で投入データを構造化・拡張(Data Synthesis)し、その結果を使ってローカルの Qwen2.5 ベースモデルの重みを微調整します。モデルの重み自体が変わるため、単にプロンプトで指示するのとは異なり、応答の根底にある「考え方」が変化します。

技術的な仕組み

Hierarchical Memory Modeling(HMM)

Second Me の中核技術は、3 層の階層的記憶モデルです。

graph TD
    L0["L0: 短期記憶<br/>直近の対話コンテキスト"]
    L1["L1: 中期記憶<br/>社会的関係・趣味嗜好の再構成"]
    L2["L2: 長期記憶<br/>価値観・思考パターン・人生経験"]

    L0 --> L1
    L1 --> L2

    INPUT["ユーザーの記憶データ"] --> L0

    style L0 fill:#3498db,color:#fff
    style L1 fill:#2980b9,color:#fff
    style L2 fill:#1a5276,color:#fff
    style INPUT fill:#ecf0f1,stroke:#2c3e50
  • L0(短期記憶): 直近の対話から即座にパターンを認識します
  • L1(中期記憶): 人間関係や興味分野を再構成し、文脈を理解します
  • L2(長期記憶): 価値観、思考様式、人生の重要な出来事を保持します

この 3 層構造により、「昨日の会話の文脈」から「その人の根本的な価値観」まで、異なる時間軸の記憶を統合して応答を生成します。

Me-Alignment アルゴリズム

汎用 LLM は万人に合わせた応答を生成しますが、Me-Alignment は特定の一人に合わせた応答を生成するための技術です。強化学習を用いて、ユーザーの思考パターン・文体・判断基準を学習します。

Mindverse の主張によると、従来の RAG(Retrieval-Augmented Generation)と比較して 37% 高いユーザー理解精度を達成しています。

なぜベースモデルに Qwen2.5 が選ばれたのか

Second Me は Qwen2.5 をベースモデルとして採用しています。公式ドキュメントに選定理由の明記はありませんが、技術的な文脈から合理的な理由が推測できます。

最大の理由は、小型モデルのラインナップの細かさです。 Second Me はローカルマシンで微調整・実行する必要があるため、小型モデルの性能が決定的に重要になります。

モデル最小サイズサイズ展開
Qwen2.50.5B0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B
Llama 3.21B1B, 3B(小型は 2 種のみ)
Phi-33.8B3.8B, 14B
Gemma 22B2B, 9B, 27B

8GB メモリの Mac でも動作させるには 0.5B クラスが必要です。この領域では Qwen2.5 が事実上唯一の選択肢になります。

さらに、小型でもベンチマーク性能が高いことも重要です。Qwen2.5-0.5B は Gemma2-2.6B(5 倍のサイズ)を数学・コーディングタスクで上回り、7B モデルも Llama3.1-8B や Gemma2-9B を多くのベンチマークで上回っています。「サイズあたりの性能」が最も高いモデルです。

graph LR
    subgraph Qwen2.5["Qwen2.5 の強み"]
        Q05["0.5B<br/>8GB Mac で動作"] --> Q15["1.5B"] --> Q3["3B"] --> Q7["7B"]
    end

    subgraph 他モデル["他モデルの最小サイズ"]
        LLAMA["Llama 3.2<br/>最小 1B"]
        PHI["Phi-3<br/>最小 3.8B"]
        GEMMA["Gemma 2<br/>最小 2B"]
    end

    style Q05 fill:#2ecc71,color:#fff
    style Q15 fill:#27ae60,color:#fff
    style Q3 fill:#229954,color:#fff
    style Q7 fill:#1e8449,color:#fff
    style LLAMA fill:#95a5a6,color:#fff
    style PHI fill:#95a5a6,color:#fff
    style GEMMA fill:#95a5a6,color:#fff

その他の選定要因として以下が考えられます。

  • LoRA 微調整との相性: Second Me は LoRA(Low-Rank Adaptation)+ 4bit 量子化で微調整を行います。Qwen2.5 はこの手法に効率的に対応しています
  • 多言語対応: Alibaba が 18 兆トークンで事前学習しており、多言語での思考パターン再現に有利です
  • 開発元の親和性: Second Me の開発元 Mindverse は中国企業であり、同じく Alibaba が開発する Qwen2.5 とはエコシステム内でのライセンス・技術サポートの親和性が高いと考えられます

要するに、「ローカルで微調整して実行する」という Second Me の要件に対して、最小 0.5B から細かく揃い、小型でも高性能な Qwen2.5 が最も合理的な選択だったということです。

Second Me と OpenClaw の本質的な違い

graph TB
    subgraph OpenClaw["OpenClaw(SOUL.md)"]
        DESIGNER["設計者"] -->|人格を定義| SOUL["SOUL.md"]
        SOUL -->|指示に従う| AGENT["エージェント"]
        AGENT -->|タスクを実行| TASK["業務処理"]
    end

    subgraph SecondMe["Second Me"]
        USER["ユーザー本人"] -->|記憶・思考を提供| HMM["HMM + Me-Alignment"]
        HMM -->|本人を再現| TWIN2["AI 分身"]
        TWIN2 -->|本人として振る舞う| WORLD2["外部とのやりとり"]
    end

    style DESIGNER fill:#f39c12,color:#fff
    style USER fill:#e74c3c,color:#fff
    style SOUL fill:#f5b041,color:#fff
    style HMM fill:#ec7063,color:#fff
    style AGENT fill:#85c1e9,color:#fff
    style TWIN2 fill:#85c1e9,color:#fff
観点OpenClaw(SOUL.md)Second Me
目的エージェントに役割を与えるユーザー自身の分身を作る
定義方法人間が Markdown で手書きユーザーデータからの自動学習
主語エージェントが「何者であるべきか」ユーザーが「どういう人間か」
技術基盤静的プロンプト + LLM APIHMM + Me-Alignment + ローカル LLM
モデルの扱い汎用モデルをそのまま使用(プロンプトで制御)汎用モデルを自分のデータで微調整(重みが変化)
進化基本的に固定対話を通じて継続的に学習
実行環境クラウド LLM API 呼び出しローカルで微調整済みモデルを実行
プライバシーエージェント設定(機密度低)個人の思考パターン(機密度高)
適した用途業務分担・チーム構築自分の代理としての意思決定

一言でいえば、OpenClaw は「秘書を雇う」、Second Me は「分身の術を使う」 です。

Second Me Protocol(SMP)— 分身同士のネットワーク

Second Me の野心的な構想が、分散型 AI アイデンティティネットワークです。

graph TD
    A_ME["Aさんの分身"] <-->|P2P| B_ME["Bさんの分身"]
    B_ME <-->|P2P| C_ME["Cさんの分身"]
    A_ME <-->|P2P| C_ME

    A_ME --> A_APP["Aさん向け<br/>パーソナライズ"]
    B_ME --> B_APP["Bさん向け<br/>パーソナライズ"]
    C_ME --> C_APP["Cさん向け<br/>パーソナライズ"]

    style A_ME fill:#e74c3c,color:#fff
    style B_ME fill:#3498db,color:#fff
    style C_ME fill:#2ecc71,color:#fff

Second Me Protocol(SMP)は、各ユーザーの AI 分身が P2P で通信し、協調するための分散型フレームワークです。重要な設計原則は以下の通りです。

  • 1 対 1 対応: すべての AI アイデンティティは実在の人間と紐づく(ボットや架空のペルソナは排除)
  • データ主権: 個人情報は本人のデバイスに留まり、明示的な同意なしに共有されない
  • 選択的共有: どの情報をどの相手に公開するかをユーザーが制御する

これにより「自分が不在でも、AI 分身が 24 時間自分の代わりを務める」世界を目指しています。

MCP による相互接続 — 分断を超えて

興味深いことに、Second Me と OpenClaw はどちらも MCP(Model Context Protocol) をサポートしています。

Second Me は MCP サーバーとして自身の AI アイデンティティを公開できます。つまり、Claude Code や OpenClaw といった MCP クライアントから「あなたの分身」を呼び出せるようになります。

graph LR
    SECOND["Second Me<br/>(MCP サーバー)"]
    CLAUDE["Claude Code<br/>(MCP クライアント)"]
    OPENCLAW["OpenClaw<br/>(MCP クライアント)"]
    ZAPIER["Zapier<br/>(MCP クライアント)"]

    CLAUDE -->|MCP| SECOND
    OPENCLAW -->|MCP| SECOND
    ZAPIER -->|MCP| SECOND

    style SECOND fill:#e74c3c,color:#fff
    style CLAUDE fill:#3498db,color:#fff
    style OPENCLAW fill:#2ecc71,color:#fff
    style ZAPIER fill:#f39c12,color:#fff

この統合により、以下のようなシナリオが可能になります。

  • OpenClaw の営業エージェントが、提案メールを書く際に Second Me を呼び出して「自分らしい文体」で下書きする
  • Claude Code でコードレビューする際、Second Me のコーディング哲学を参照する
  • 自動化ツールが意思決定を求められた際、Second Me に「本人ならどう判断するか」を問い合わせる

現時点での課題

Second Me はビジョンは壮大ですが、現時点では以下の課題があります。

ローカル LLM の性能限界

実際に試した日本語ユーザーのレポートでは、ロールプレイ機能の応答品質は「ちょっと微妙」と評価されています。ローカルで動作する Qwen2.5(0.5B〜3B パラメータ)の能力がボトルネックになっています。

メモリDocker(Mac)推奨モデルサイズ
8GB〜0.4B実用には不十分
16GB〜0.5B最低限
32GB〜1.2B基本的な動作

0.5B 未満のモデルでは性能が限定的であり、「ユーザーの端末性能にめちゃめちゃ依存している」という指摘があります。

セットアップの複雑さ

Python のバージョン互換性(3.13 以上は非対応)、chroma-hnswlib のビルドエラーなど、技術的なハードルが報告されています。

日本語対応

アイデンティティ定義が英語入力のみ対応しており、日本語での思考パターン再現には制約があります。

AI エージェントの 2 つの方向性

OpenClaw と Second Me は、AI エージェントの発展における 2 つの異なる方向性を示しています。

graph TD
    ROOT["AI エージェント"] --> TOOL["道具としての AI<br/>(タスク実行型)"]
    ROOT --> IDENTITY["分身としての AI<br/>(アイデンティティ型)"]

    TOOL --> OPENCLAW["OpenClaw<br/>SOUL.md で役割定義"]
    TOOL --> CLAUDE["Claude Code<br/>CLAUDE.md で制約定義"]

    IDENTITY --> SECONDME["Second Me<br/>HMM で本人を再現"]
    IDENTITY --> FUTURE["今後の発展<br/>MCP で相互接続"]

    OPENCLAW -.->|MCP 統合| FUTURE
    SECONDME -.->|MCP 統合| FUTURE

    style ROOT fill:#2c3e50,color:#fff
    style TOOL fill:#3498db,color:#fff
    style IDENTITY fill:#e74c3c,color:#fff
    style OPENCLAW fill:#85c1e9,color:#fff
    style CLAUDE fill:#85c1e9,color:#fff
    style SECONDME fill:#ec7063,color:#fff
    style FUTURE fill:#f39c12,color:#fff
  • 道具としての AI: OpenClaw や Claude Code のように、エージェントに明確な役割を与えてタスクを実行させるアプローチです。SOUL.md や CLAUDE.md で「何をさせるか」を定義します
  • 分身としての AI: Second Me のように、ユーザー自身の思考・価値観を再現し、「本人の代わり」として振る舞うアプローチです

現時点では「道具としての AI」が実用性で先行していますが、MCP による相互接続が進めば、「道具が本人の判断基準を参照する」ハイブリッドな形態が主流になる可能性があります。

まとめ

  • SOUL.md は「指示書」、Second Me は「分身」 です。前者はエージェントの振る舞いをプロンプトで外から定義し、後者はモデルの重み自体を微調整してユーザーの思考パターンを内部から再現します
  • Second Me は AI モデルをゼロから作るのではなく、汎用モデル(Qwen2.5)を自分のデータでファインチューニングします。プロンプトによる制御とは異なり、応答の根底にある「考え方」が変化します
  • Second Me は 3 層の階層的記憶モデル(HMM) で、短期記憶から長期的な価値観まで統合的に学習します
  • Me-Alignment アルゴリズム により、RAG 比 37% 高いユーザー理解精度を実現しています
  • Second Me Protocol(SMP) は、AI 分身同士が P2P で協調する分散型ネットワークを構想しています
  • MCP 対応により OpenClaw や Claude Code との統合が可能 になり、「道具としての AI」と「分身としての AI」の融合が始まっています
  • 現時点ではローカル LLM の性能がボトルネック であり、日本語環境での実用性には課題が残ります
  • AI エージェントは「道具型」と「アイデンティティ型」の 2 方向に分岐 しつつあり、MCP で再統合される未来が見えています

参考