Amazon Bedrock が OpenAI API 互換を提供開始 — Mantle 推論エンジンが「モデルの交換可能性」を実現する

@publickey が X で投稿した、Amazon Bedrock の OpenAI API 互換機能に関するブログ記事が話題を呼んでいます。

ブログ書きました: 「Amazon Bedrock」でOpenAI API互換を提供開始。オープンウェイトな基盤モデルでOpenAI SDKが利用可能に

Publickey の元記事によると、AWS は Amazon Bedrock の Mantle 推論エンジンで OpenAI API 互換機能の提供を開始しました。これにより、開発者は使い慣れた OpenAI SDK をそのまま Amazon Bedrock 上で利用できるようになります。

この動きは単なる「API の互換性」にとどまらず、AI 業界の構造を変える可能性を持っています。本記事では、Mantle 推論エンジンの技術的な仕組みと、この互換性がもたらす業界への影響を掘り下げます。

Mantle 推論エンジンとは何か

分散推論の基盤

Mantle は、Amazon Bedrock のために構築された大規模モデル向け分散推論エンジンです。単なる API ラッパーではなく、以下の機能を内包する本格的な推論インフラです。

機能説明
サーバーレス推論容量管理を自動化し、デフォルトのクォータを引き上げ
OpenAI API 互換Chat Completions API / Responses API をネイティブサポート
ステートフル会話管理会話履歴をサーバー側で保持(Responses API)
非同期推論長時間実行ワークロードのバックグラウンド処理
ストリーミングリアルタイムのレスポンス生成に対応
ゼロオペレーターアクセスNitroTPM による暗号学的な実行環境保証

セキュリティ設計

Mantle のセキュリティ設計は注目に値します。EC2 インスタンス証明(Instance Attestation)機能を活用し、顧客データ処理のための硬化された不変のコンピュート環境を構成しています。Nitro Trusted Platform Module(NitroTPM)による暗号署名付き証明測定で、モデルの重みと推論オペレーションを保護します。

さらに、AWS PrivateLink のサポートにより、OpenAI 互換 API エンドポイントへのアクセスをパブリックインターネットではなくプライベートネットワーク接続経由で行えます。エンタープライズにとって、これは**「OpenAI SDK の使いやすさ + AWS のセキュリティ基盤」**という組み合わせを意味します。

対応モデルと API

オープンウェイトモデルの充実

Mantle 推論エンジンは、複数ベンダーのオープンウェイトモデルに対応しています。

ベンダーモデル例特徴
OpenAIGPT-OSS 20B / 120BOpenAI 公式のオープンウェイト版
DeepSeekDeepSeek V3.2推論・エージェント知能に強み
GoogleMantle 対応モデルとして利用可能
Mistralコーディング・多言語対応
AlibabaQwen 3 Coder Nextコスト効率の高いコーディング
MiniMaxM2.1大出力ウィンドウでの自律コーディング
Moonshot AIKimi K2.5推論・エージェント知能
NvidiaMantle 対応モデルとして利用可能

加えて、2026 年 2 月には GLM 4.7 / GLM 4.7 Flash、Qwen3 Coder Next など 6 つのオープンウェイトモデルが追加されています。

2 つの API インターフェース

Mantle は 2 つの OpenAI 互換 API を提供しています。

Chat Completions API — 従来型のステートレスな会話 API です。クライアントが全会話履歴を毎回送信します。すべての Mantle 対応モデルで利用可能です。

Responses API — ステートフルな会話管理を実現する新しい API です。previous_response_id を使って会話状態をサーバー側で保持するため、長い会話でも帯域を節約できます。現時点では OpenAI GPT-OSS モデルで利用可能です。

実装方法 — コード 2 行の変更で移行

環境変数の設定

OpenAI SDK を Amazon Bedrock に向けるために必要な変更は、エンドポイントと API キーの 2 つだけです。

1
2
export OPENAI_BASE_URL="https://bedrock-mantle.us-east-1.api.aws/v1"
export OPENAI_API_KEY="your-bedrock-api-key"

東京リージョン(ap-northeast-1)も対応しており、日本のエンタープライズでも低レイテンシで利用できます。

Chat Completions API の例

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
from openai import OpenAI

client = OpenAI()  # 環境変数から自動的にエンドポイントとキーを取得

completion = client.chat.completions.create(
    model="openai.gpt-oss-120b",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"}
    ]
)

print(completion.choices[0].message)

既存の OpenAI SDK コードがそのまま動作する点がポイントです。モデル名を変更するだけで、異なるベンダーのモデルに切り替えられます。

Responses API(ステートフル会話)の例

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
from openai import OpenAI

client = OpenAI()

# 最初のリクエスト
response = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[
        {"role": "user", "content": "Hello! How can you help me today?"}
    ]
)

# 2回目以降: previous_response_id で会話を継続
followup = client.responses.create(
    model="openai.gpt-oss-120b",
    previous_response_id=response.id,
    input=[
        {"role": "user", "content": "Tell me more about that."}
    ]
)

サーバー側で会話状態を約 30 日間保持するため、クライアント側での会話履歴管理が不要になります。

なぜこれが重要か — 「API 互換」の構造的インパクト

OpenAI API が「事実上の標準」になった

OpenAI の Chat Completions API は、LLM 業界における 事実上の標準インターフェース になりつつあります。

2023-2024: OpenAI SDK → OpenAI API のみ
2025:      LiteLLM 等が 100+ プロバイダを OpenAI 形式で抽象化
2026:      AWS 自身が Bedrock で OpenAI API を「ネイティブに」サポート

LiteLLM のようなサードパーティの API ゲートウェイが 100 以上の LLM プロバイダを OpenAI 形式で統一してきましたが、AWS が公式にこの標準を採用したことで、OpenAI API 仕様がクラウドプロバイダレベルで承認されたことになります。

モデルの「交換可能性」が現実になる

この互換性がもたらす最大のインパクトは、モデルのコモディティ化です。

1
2
3
4
5
6
7
# モデル名を変えるだけで、異なるベンダーのモデルに切り替え可能
completion = client.chat.completions.create(
    model="openai.gpt-oss-120b",      # OpenAI のオープンウェイト
    # model="deepseek.deepseek-v3-2",  # DeepSeek に切り替え
    # model="qwen.qwen3-coder-next",   # Qwen に切り替え
    messages=[...]
)

これは先の記事「SaaS の終焉(SaaSpocalypse)」で取り上げたマルチモデル・オーケストレーション時代の具体的な実装です。エージェントがタスクの性質に応じて「ここは高精度な Claude」「ここはコスト効率の DeepSeek」と使い分ける世界が、API レベルで実現されつつあります。

AWS と OpenAI の 500 億ドルパートナーシップ

この API 互換はより大きな戦略の一部です。2026 年 2 月、Amazon と OpenAI は500 億ドル規模の戦略的パートナーシップを発表しました。

項目内容
投資額初期 150 億ドル + 追加 350 億ドル(条件付き)
コンピュートOpenAI が約 2GW の Trainium 容量をコミット(Trainium3 + Trainium4)
独占配信AWS が OpenAI Frontier の独占的サードパーティクラウド配信プロバイダに
共同開発ステートフルランタイム環境を Amazon Bedrock 上で提供予定

AWS は OpenAI のモデルを Bedrock に統合しつつ、同時に DeepSeek、Mistral、Qwen などの競合モデルも同じ API 仕様でホスティングしています。**「OpenAI のエコシステムを取り込みつつ、マルチモデルのプラットフォームとして支配する」**という AWS の戦略が明確に見えます。

エンタープライズにとっての意味

ベンダーロックインからの解放

従来、LLM を本番環境に導入する際の最大のリスクの一つがベンダーロックインでした。OpenAI に依存してアプリケーションを構築すると、OpenAI の価格改定・サービス変更・障害に直接影響されます。

Bedrock + Mantle の構成では、OpenAI SDK のコードをそのまま維持しながら、バックエンドのモデルだけを切り替えられます。

ベンダーロックインの解消:
  コード変更: モデル名の文字列を変更するだけ
  インフラ変更: なし(同じ Bedrock エンドポイント)
  認証変更: なし(同じ AWS 認証基盤)
  コンプライアンス: AWS のセキュリティ基盤が一貫して適用

コスト最適化の自動化

API が統一されることで、タスクに応じたモデルルーティングが容易になります。

タスク推奨モデル理由
複雑な推論・分析GPT-OSS 120B高精度が必要
コード生成Qwen3 Coder Nextコーディング特化
大量の定型処理GLM 4.7 Flashコスト効率重視
エージェントタスクDeepSeek V3.2 / Kimi K2.5エージェント知能に強み

Projects API を使えば、プロジェクトごとに異なるモデルを割り当て、IAM ベースのアクセス制御とコストタグで管理できます。追加料金なしで利用可能です。

エンタープライズが特に注目すべきは PrivateLink 対応です。OpenAI 互換 API エンドポイントをプライベートネットワーク経由でアクセスできるため、機密データがパブリックインターネットを経由しません。金融・医療・官公庁など、データの外部送信に厳しい制約がある業界でも採用しやすくなっています。

「API 標準化」が加速させるもの

エージェント時代のインフラ

OpenAI API の標準化は、AI エージェントの普及を加速させます。

エージェントフレームワーク(OpenAI Agents SDK、LangChain、CrewAI など)は、LLM との通信に OpenAI API 仕様を前提としています。Bedrock がこの仕様をネイティブサポートすることで、エージェントは AWS のインフラ上で、複数ベンダーのモデルを透過的に利用できるようになります。

エージェントフレームワーク
    ↓ OpenAI SDK
Amazon Bedrock (Mantle)
    ├── OpenAI GPT-OSS → 高精度な推論
    ├── DeepSeek V3.2 → コスト効率
    ├── Qwen3 Coder → コード生成
    └── Kimi K2.5 → エージェントタスク

開発者エコシステムの統一

OpenAI SDK で書かれた既存のライブラリ、チュートリアル、ツールが、そのまま Bedrock 上で動作するという事実は、開発者にとって大きな意味を持ちます。学習コストがゼロに近い状態で、エンタープライズグレードのインフラに移行できるのです。

まとめ

  • Mantle は単なる API ラッパーではない: 分散推論エンジンとして、サーバーレス推論・ステートフル会話管理・ゼロオペレーターアクセスなど本格的なインフラ機能を内包している
  • コード 2 行の変更で移行可能: エンドポイントと API キーを変更するだけで、既存の OpenAI SDK コードが Bedrock 上で動作する
  • OpenAI API が業界標準に: AWS が公式にサポートしたことで、OpenAI の Chat Completions API / Responses API がクラウドプロバイダレベルで承認された事実上の標準になった
  • モデルの交換可能性が実現: モデル名の文字列を変えるだけで、OpenAI・DeepSeek・Qwen・Mistral などを切り替えられ、ベンダーロックインのリスクが大幅に低減する
  • 500 億ドルのパートナーシップの一環: AWS は OpenAI のエコシステムを取り込みつつ、マルチモデルプラットフォームとしての地位を固めている
  • エージェント時代のインフラ: API の標準化により、エージェントフレームワークが AWS 上で複数ベンダーのモデルを透過的に利用できる基盤が整った
  • エンタープライズ向けセキュリティ: PrivateLink、NitroTPM、IAM ベースのアクセス制御により、機密性の高い業界でも採用しやすい

参考