AIチャットボットのプライバシー問題 — スタンフォード大学の研究が暴いた6社の構造的欠陥

AIチャットボットにあなたのプライバシーは存在しない — スタンフォード大学が暴いた構造的欠陥 スタンフォード大学の研究チームが、米国の主要AIチャットボット6社のプライバシーポリシーを体系的に分析した論文 “User Privacy and Large Language Models” を発表しました。その結論は明確です——全6社がユーザーの会話データをデフォルトでモデル学習に利用しており、実効的な保護は極めて限定的です。 論文概要 項目 内容 タイトル User Privacy and Large Language Models: An Analysis of Frontier Developers’ Privacy Policies 著者 Jennifer King, Kevin Klyman, Fotis Gaspelos, Tiffany Saade, Victoria Bhatt 所属 Stanford University 発表 2025年10月(AAAI AIES 掲載) 論文 arXiv:2509.05382 対象6社 企業 チャットボット Amazon Nova Anthropic Claude Google Gemini Meta Meta AI Microsoft Copilot OpenAI ChatGPT 1. データの「統合」—— 会話が資産として再利用される構造 全6社がデフォルトでモデル学習に利用 Anthropic は長らく「消費者の会話データを学習に使わない」と差別化していましたが、2025年9月にオプトイン → オプトアウトへ転換。これにより全6社がデフォルト学習利用に揃いました。 ...

2026年3月1日 · 2 分

AI は会話が長くなるほど「迷子」になる — Microsoft × Salesforce の研究解説

AI は会話が長くなるほど「迷子」になる — Microsoft × Salesforce の衝撃の研究 紹介ポスト: kosuke_agos 論文: LLMs Get Lost In Multi-Turn Conversation Microsoft Research: 公式ページ はじめに 「AI と長く会話するほど、AI の知能が劣化する」— これは体感ではなく、Microsoft Research と Salesforce Research が 20万件以上の AI 会話を分析 して科学的に証明した事実である。 論文タイトルは “LLMs Get Lost In Multi-Turn Conversation”(LLM はマルチターン会話で迷子になる)。GPT-4.1、Claude 3.7 Sonnet、Gemini 2.5 Pro を含む 15 モデル全てで、会話が長くなるほど性能が劇的に低下することが明らかになった。 衝撃の数字 指標 数値 平均性能低下 39% 不安定性(unreliability)の増大 +112% 精度の変化 90% → 約 51% テストしたモデル数 15(大小問わず全て劣化) 最も重要な発見: 高性能モデルも小型モデルも、同じように劣化する。 Claude 3.7 Sonnet、Gemini 2.5 Pro、GPT-4.1 といったトップモデルでも 30〜40% の性能低下が観測された。モデルの「賢さ」では回避できない、構造的な問題であることが判明した。 研究チームと手法 著者 名前 所属 Philippe Laban Microsoft Research Hiroaki Hayashi Salesforce Research Yingbo Zhou Salesforce Research Jennifer Neville Microsoft Research テスト対象モデル(15種) OpenAI: GPT-4o-mini, GPT-4o, o3, GPT-4.1 Anthropic: Claude 3 Haiku, Claude 3.7 Sonnet Google: Gemini 2.5 Flash, Gemini 2.5 Pro Meta: Llama 3.1-8B, Llama 3.3-70B, Llama 4 Scout その他: Microsoft Phi-4, AI2 OLMo-2-13B, Deepseek-R1, Cohere Command-A Sharding(シャーディング)— 現実の会話を再現する手法 ユーザーは通常、最初から完璧な指示を出さない。 ...

2026年2月27日 · 2 分

DSpy

DSPy (Declarative Sequencing for Python) https://dspy-docs.vercel.app/ (Programming—not prompting—Language Models) DSPyについて DSPyは、LMプロンプトとウェイトをアルゴリズム的に最適化するためのフレームワークです、 特にLMがパイプライン内で1回以上使用される場合。 LMを使用して複雑なシステムを構築する なし DSPy、あなたは一般的に次のことを行う必要があります: (1)問題をステップに分解する、 (2)各ステップが個別にうまく機能するまでLMをうまく促す、 (3)ステップを微調整してうまく連携する、 (4)合成例を生成する各ステップを調整し、 (5)これらの例を使用して、より小さなLMを調整してコストを削減します。 現在、これは困難で厄介です。パイプライン、LM、またはデータを変更するたびに、すべてのプロンプト(または微調整手順)を変更する必要がある場合があります。 これをより体系的ではるかに強力にするために、 DSPy 2つのことを行います。 まず、プログラムの流れを分離します(modules)各ステップのパラメーター(LMプロンプトとウェイト)から。 第二に、 DSPy 新しい optimizers、これは、LMコールのプロンプトやウェイトを調整できるLM駆動アルゴリズムです。metric 最大化したい。 DSPy のような強力なモデルを日常的に教えることができます GPT-3.5 または GPT-4 と地元のモデル T5-base または Llama2-13b タスクではるかに信頼性が高くなること、つまり、より高い品質を持つこと、および/または特定の障害パターンを回避すること。 DSPy オプティマイザーは 同じ プログラム 異なる 各LMの指示、ショットの少ないプロンプト、および/またはウェイトの更新(finetunes)。 これは、LMとそのプロンプトが、データから学習できるより大きなシステムの最適化可能な部分としてバックグラウンドにフェードインする新しいパラダイムです。 tldr; LMでハードタスクを解決するためのプロンプトが少なく、スコアが高く、より体系的なアプローチ。 ニューラルネットワークへのアナロジー ニューラルネットワークを構築するときは、マニュアルを書きません for-loops 以上のリスト 手調整 フロート。代わりに、次のようなフレームワークを使用できます PyTorch レイヤーを作成する(例: Convolution または Dropout)0次に、オプティマイザー(SGDやAdamなど)を使用して、ネットワークのパラメーターを学習します。 同上!DSPy 適切な汎用モジュールを提供します (例: ChainOfThought、 ReAct等)、文字列ベースのプロンプトトリックを置き換えます。 迅速なハッキングと1回限りの合成データジェネレーターを置き換えるには、 DSPy 一般的なオプティマイザーも提供します(BootstrapFewShotWithRandomSearch または MIPRO)、 これはプログラムのパラメーターを更新するアルゴリズムです。 コード、データ、アサーション、またはメトリックを変更するときはいつでも、 コンパイル あなたのプログラムをもう一度 DSPy 変更に適合する新しい効果的なプロンプトを作成します。 ...

2024年10月4日 · 1 分

ChatGPT: PowerPoint生成

CHatGPT PowerPoint 生成 How to build: an AI PowerPoint generator (Next.js, OpenAI, CopilotKit) https://github.com/CopilotKit/CopilotKit

2024年2月21日 · 1 分

ChatGPT: SQL 生成

ChatGPT SQL 生成 https://github.com/ademakdogan/ChatSQL

2024年2月15日 · 1 分

AWS: Bedrock: GenAI

AWS: Bedrock: GenAI Amazon Bedrock とは 【速報】AWS の生成 AI サービスである Amazon Bedrock がリリースされたので朝イチで触ってみた Amazon Bedrock “Claude 2” と、ChatGPT “GPT-4” を比較してみる AWS による生成 AI の新サービス「Amazon Bedrock」の可能性を考察する Amazon Bedrock でモデルごとに画像を生成してみた Bedrock のはじめかた Amazon Bedrock の導入効果をレビューでご紹介(KDDI アジャイル開発センター株式会社-みのるん) Build generative AI chatbots using prompt engineering with Amazon Redshift and Amazon Bedrock GPT 連携アプリ開発時の必須知識、RAG をゼロから解説する。概要&Python コード例 Amazon Bedrock の Knowledge base で簡単に RAG を構築 Github: Query structured data with natural language using Amazon Bedrock https://github.com/aws-samples/amazon-bedrock-workshop https://github.com/aws-samples/promptus API: Boto3: https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/bedrock.html モデル Titan FMs Claude 2 Jurassic-2 (Python SDK) Stable Diffusion Claude 2 生成 AI の最新モデル「Claude2」とは?使い方や ChatGPT との違いについても解説 クライアント SDK GPT-4 と Claude 2 を比較してみました 【Claude 2.1】ChatGPT 超え AI の日本語での使い方や API の使用方法、GPT-4 との比較を解説 Anthropic、「Claude 2.1」をリリース–15 万ワードに対応、幻覚も半減 Jurassi-2 日本語対応していない AWS の"推しの AI" 「Jurassic-2」を使ってみた!!Bedrock ローンチ前に使えるんやん!

2024年2月6日 · 1 分