Amazon Bedrock が OpenAI API 互換を提供開始 — Mantle 推論エンジンが「モデルの交換可能性」を実現する
@publickey が X で投稿した、Amazon Bedrock の OpenAI API 互換機能に関するブログ記事が話題を呼んでいます。
ブログ書きました: 「Amazon Bedrock」でOpenAI API互換を提供開始。オープンウェイトな基盤モデルでOpenAI SDKが利用可能に
Publickey の元記事によると、AWS は Amazon Bedrock の Mantle 推論エンジンで OpenAI API 互換機能の提供を開始しました。これにより、開発者は使い慣れた OpenAI SDK をそのまま Amazon Bedrock 上で利用できるようになります。
この動きは単なる「API の互換性」にとどまらず、AI 業界の構造を変える可能性を持っています。本記事では、Mantle 推論エンジンの技術的な仕組みと、この互換性がもたらす業界への影響を掘り下げます。
Mantle 推論エンジンとは何か
分散推論の基盤
Mantle は、Amazon Bedrock のために構築された大規模モデル向け分散推論エンジンです。単なる API ラッパーではなく、以下の機能を内包する本格的な推論インフラです。
| 機能 | 説明 |
|---|---|
| サーバーレス推論 | 容量管理を自動化し、デフォルトのクォータを引き上げ |
| OpenAI API 互換 | Chat Completions API / Responses API をネイティブサポート |
| ステートフル会話管理 | 会話履歴をサーバー側で保持(Responses API) |
| 非同期推論 | 長時間実行ワークロードのバックグラウンド処理 |
| ストリーミング | リアルタイムのレスポンス生成に対応 |
| ゼロオペレーターアクセス | NitroTPM による暗号学的な実行環境保証 |
セキュリティ設計
Mantle のセキュリティ設計は注目に値します。EC2 インスタンス証明(Instance Attestation)機能を活用し、顧客データ処理のための硬化された不変のコンピュート環境を構成しています。Nitro Trusted Platform Module(NitroTPM)による暗号署名付き証明測定で、モデルの重みと推論オペレーションを保護します。
さらに、AWS PrivateLink のサポートにより、OpenAI 互換 API エンドポイントへのアクセスをパブリックインターネットではなくプライベートネットワーク接続経由で行えます。エンタープライズにとって、これは**「OpenAI SDK の使いやすさ + AWS のセキュリティ基盤」**という組み合わせを意味します。
対応モデルと API
オープンウェイトモデルの充実
Mantle 推論エンジンは、複数ベンダーのオープンウェイトモデルに対応しています。
| ベンダー | モデル例 | 特徴 |
|---|---|---|
| OpenAI | GPT-OSS 20B / 120B | OpenAI 公式のオープンウェイト版 |
| DeepSeek | DeepSeek V3.2 | 推論・エージェント知能に強み |
| — | Mantle 対応モデルとして利用可能 | |
| Mistral | — | コーディング・多言語対応 |
| Alibaba | Qwen 3 Coder Next | コスト効率の高いコーディング |
| MiniMax | M2.1 | 大出力ウィンドウでの自律コーディング |
| Moonshot AI | Kimi K2.5 | 推論・エージェント知能 |
| Nvidia | — | Mantle 対応モデルとして利用可能 |
加えて、2026 年 2 月には GLM 4.7 / GLM 4.7 Flash、Qwen3 Coder Next など 6 つのオープンウェイトモデルが追加されています。
2 つの API インターフェース
Mantle は 2 つの OpenAI 互換 API を提供しています。
Chat Completions API — 従来型のステートレスな会話 API です。クライアントが全会話履歴を毎回送信します。すべての Mantle 対応モデルで利用可能です。
Responses API — ステートフルな会話管理を実現する新しい API です。previous_response_id を使って会話状態をサーバー側で保持するため、長い会話でも帯域を節約できます。現時点では OpenAI GPT-OSS モデルで利用可能です。
実装方法 — コード 2 行の変更で移行
環境変数の設定
OpenAI SDK を Amazon Bedrock に向けるために必要な変更は、エンドポイントと API キーの 2 つだけです。
| |
東京リージョン(ap-northeast-1)も対応しており、日本のエンタープライズでも低レイテンシで利用できます。
Chat Completions API の例
| |
既存の OpenAI SDK コードがそのまま動作する点がポイントです。モデル名を変更するだけで、異なるベンダーのモデルに切り替えられます。
Responses API(ステートフル会話)の例
| |
サーバー側で会話状態を約 30 日間保持するため、クライアント側での会話履歴管理が不要になります。
なぜこれが重要か — 「API 互換」の構造的インパクト
OpenAI API が「事実上の標準」になった
OpenAI の Chat Completions API は、LLM 業界における 事実上の標準インターフェース になりつつあります。
2023-2024: OpenAI SDK → OpenAI API のみ
2025: LiteLLM 等が 100+ プロバイダを OpenAI 形式で抽象化
2026: AWS 自身が Bedrock で OpenAI API を「ネイティブに」サポート
LiteLLM のようなサードパーティの API ゲートウェイが 100 以上の LLM プロバイダを OpenAI 形式で統一してきましたが、AWS が公式にこの標準を採用したことで、OpenAI API 仕様がクラウドプロバイダレベルで承認されたことになります。
モデルの「交換可能性」が現実になる
この互換性がもたらす最大のインパクトは、モデルのコモディティ化です。
| |
これは先の記事「SaaS の終焉(SaaSpocalypse)」で取り上げたマルチモデル・オーケストレーション時代の具体的な実装です。エージェントがタスクの性質に応じて「ここは高精度な Claude」「ここはコスト効率の DeepSeek」と使い分ける世界が、API レベルで実現されつつあります。
AWS と OpenAI の 500 億ドルパートナーシップ
この API 互換はより大きな戦略の一部です。2026 年 2 月、Amazon と OpenAI は500 億ドル規模の戦略的パートナーシップを発表しました。
| 項目 | 内容 |
|---|---|
| 投資額 | 初期 150 億ドル + 追加 350 億ドル(条件付き) |
| コンピュート | OpenAI が約 2GW の Trainium 容量をコミット(Trainium3 + Trainium4) |
| 独占配信 | AWS が OpenAI Frontier の独占的サードパーティクラウド配信プロバイダに |
| 共同開発 | ステートフルランタイム環境を Amazon Bedrock 上で提供予定 |
AWS は OpenAI のモデルを Bedrock に統合しつつ、同時に DeepSeek、Mistral、Qwen などの競合モデルも同じ API 仕様でホスティングしています。**「OpenAI のエコシステムを取り込みつつ、マルチモデルのプラットフォームとして支配する」**という AWS の戦略が明確に見えます。
エンタープライズにとっての意味
ベンダーロックインからの解放
従来、LLM を本番環境に導入する際の最大のリスクの一つがベンダーロックインでした。OpenAI に依存してアプリケーションを構築すると、OpenAI の価格改定・サービス変更・障害に直接影響されます。
Bedrock + Mantle の構成では、OpenAI SDK のコードをそのまま維持しながら、バックエンドのモデルだけを切り替えられます。
ベンダーロックインの解消:
コード変更: モデル名の文字列を変更するだけ
インフラ変更: なし(同じ Bedrock エンドポイント)
認証変更: なし(同じ AWS 認証基盤)
コンプライアンス: AWS のセキュリティ基盤が一貫して適用
コスト最適化の自動化
API が統一されることで、タスクに応じたモデルルーティングが容易になります。
| タスク | 推奨モデル | 理由 |
|---|---|---|
| 複雑な推論・分析 | GPT-OSS 120B | 高精度が必要 |
| コード生成 | Qwen3 Coder Next | コーディング特化 |
| 大量の定型処理 | GLM 4.7 Flash | コスト効率重視 |
| エージェントタスク | DeepSeek V3.2 / Kimi K2.5 | エージェント知能に強み |
Projects API を使えば、プロジェクトごとに異なるモデルを割り当て、IAM ベースのアクセス制御とコストタグで管理できます。追加料金なしで利用可能です。
PrivateLink による閉域網接続
エンタープライズが特に注目すべきは PrivateLink 対応です。OpenAI 互換 API エンドポイントをプライベートネットワーク経由でアクセスできるため、機密データがパブリックインターネットを経由しません。金融・医療・官公庁など、データの外部送信に厳しい制約がある業界でも採用しやすくなっています。
「API 標準化」が加速させるもの
エージェント時代のインフラ
OpenAI API の標準化は、AI エージェントの普及を加速させます。
エージェントフレームワーク(OpenAI Agents SDK、LangChain、CrewAI など)は、LLM との通信に OpenAI API 仕様を前提としています。Bedrock がこの仕様をネイティブサポートすることで、エージェントは AWS のインフラ上で、複数ベンダーのモデルを透過的に利用できるようになります。
エージェントフレームワーク
↓ OpenAI SDK
Amazon Bedrock (Mantle)
├── OpenAI GPT-OSS → 高精度な推論
├── DeepSeek V3.2 → コスト効率
├── Qwen3 Coder → コード生成
└── Kimi K2.5 → エージェントタスク
開発者エコシステムの統一
OpenAI SDK で書かれた既存のライブラリ、チュートリアル、ツールが、そのまま Bedrock 上で動作するという事実は、開発者にとって大きな意味を持ちます。学習コストがゼロに近い状態で、エンタープライズグレードのインフラに移行できるのです。
まとめ
- Mantle は単なる API ラッパーではない: 分散推論エンジンとして、サーバーレス推論・ステートフル会話管理・ゼロオペレーターアクセスなど本格的なインフラ機能を内包している
- コード 2 行の変更で移行可能: エンドポイントと API キーを変更するだけで、既存の OpenAI SDK コードが Bedrock 上で動作する
- OpenAI API が業界標準に: AWS が公式にサポートしたことで、OpenAI の Chat Completions API / Responses API がクラウドプロバイダレベルで承認された事実上の標準になった
- モデルの交換可能性が実現: モデル名の文字列を変えるだけで、OpenAI・DeepSeek・Qwen・Mistral などを切り替えられ、ベンダーロックインのリスクが大幅に低減する
- 500 億ドルのパートナーシップの一環: AWS は OpenAI のエコシステムを取り込みつつ、マルチモデルプラットフォームとしての地位を固めている
- エージェント時代のインフラ: API の標準化により、エージェントフレームワークが AWS 上で複数ベンダーのモデルを透過的に利用できる基盤が整った
- エンタープライズ向けセキュリティ: PrivateLink、NitroTPM、IAM ベースのアクセス制御により、機密性の高い業界でも採用しやすい
参考
- @publickey のポスト
- Publickey: 「Amazon Bedrock」でOpenAI API互換を提供開始
- AWS: Amazon Bedrock announces OpenAI-compatible Projects API in the Mantle inference engine
- AWS: Generate responses using OpenAI APIs - Amazon Bedrock
- DEV.to: Exploring the OpenAI-Compatible APIs in Amazon Bedrock
- AWS: Exploring the zero operator access design of Mantle
- AWS: Amazon Bedrock expands PrivateLink support to OpenAI-compatible API endpoints
- AWS: Amazon Bedrock reinforcement fine-tuning adds support for open-weight models with OpenAI-compatible APIs
- Amazon and OpenAI: Strategic Partnership Announcement
- OpenAI: AWS and OpenAI announce multi-year strategic partnership
- GitHub: LiteLLM - Python SDK to call 100+ LLM APIs in OpenAI format