RAG(検索拡張生成)
大規模な言語モデルの出力を最適化するプロセスです。
応答を生成する前に、トレーニングデータソース以外の信頼できる知識ベースを参照します。
大規模言語モデル (LLM) は、膨大な量のデータに基づいてトレーニングされ、何十億ものパラメーターを使用して、質問への回答、言語の翻訳、文章の完成などのタスクのためのオリジナルの出力を生成します。
LLM の既に強力な機能を、モデルを再トレーニングすることなく、特定の分野や組織の内部ナレッジベースに拡張します。
LLM のアウトプットを改善するための費用対効果の高いアプローチであるため、さまざまな状況で関連性、正確性、有用性を維持できます。
外部ソースから取得した情報を用いて、生成 AI モデルの精度と信頼性を向上させるテクノロジです。
基盤モデル(FM)
例:
- BERT
- GPT(OpenAI)
- Titan(Amazon)
- Jurassic(AI21)
- Claude(Anthropic)
- Cohere
- Stable Diffusion
- BLOOM
- Hugging Face
Bedlock
- Amazon Bedrock 使ってみた
- Amazon SageMaker は機械学習の包括的なライフサイクル(構築、訓練、展開)をサポートする
- Bedrock は Fine-tuning は出来るものの基本的には Amazon Titan や AI スタートアップの基盤モデル(FM)を API から利用することに重きを置いています。
- 自分たちで最初から構築したモデルでなければビジネスとして成り立たないシーンでは、Amazon Bedrock を選択してはいけません。
- 非常に厳しいセキュリティ要件がある場合にも避けた方が良い