シャドーAI
概要 シャドーAI(Shadow AI)は、IT・情報セキュリティ部門の審査・承認を受けずに従業員が業務で使用する AI ツールやサービスのこと。従業員の約 40% が業務で非承認の生成 AI ツールを使用しているとされ、多くの企業で組織的な管理の外に広がっている。 主なリスク 機密情報の漏洩: 社内コード・顧客情報・財務データが外部 AI サービスに送信されるリスク(Samsung 機密漏洩事件 2023年が典型例) コンプライアンス違反: GDPR・個人情報保護法・HIPAA などへの抵触 品質・ハルシネーション: 非承認ツールの出力が検証なしに本番環境へ ライセンス問題: AI 生成コードの著作権上の懸念 シャドーワークフロー蓄積: 業務フローが IT 管理外の AI に依存し始め、サービス終了時に業務停止リスク 対策アプローチ AI ゲートウェイ導入: Microsoft Purview、Cloudflare AI Gateway、CASB で利用を可視化・フィルタリング 承認済みツールカタログ整備: 安全に使える AI ツール一覧を公開し、自然な誘導を促す エンタープライズ契約: データ学習除外の環境を一括提供 従業員教育: リスクの理由を理解させる(禁止より理解が効果的) DLP 強化: AI サービスへのデータ送信を既存ポリシーでカバー 対策の基本姿勢 「使わせない」ではなく「安全に使わせる」。禁止は技術的に困難で競争力を損なうため、AI ガバナンスの枠組みで管理する。 関連ページ バイブコーディング Infisical ソース記事 シャドーAIがもたらす見えないリスク — 2026-04-15 バイブコーディングの怖い話 — 2026-04-15