AIエージェントがマッキンゼーをハックする
49日前原文(codewall.ai)
概要
- McKinsey & CompanyのAIプラットフォーム「Lilli」が深刻なセキュリティ侵害を受けた事例
- 認証不要のAPIエンドポイントからSQLインジェクションが自動エージェントにより発見・悪用
- 数千万件の機密データやAIプロンプトの完全な読み書き権限を2時間で奪取
- AIプロンプト層の脆弱性と今後のAI時代における新たな攻撃リスクを強調
- インシデントの経緯と、AI主導の攻撃がもたらすセキュリティ課題を解説
McKinsey LilliにおけるAIエージェントによる侵害事例
-
McKinsey & Companyが2023年に導入した社内AIプラットフォーム「Lilli」の概要
- 43,000人超の従業員が利用
- チャット、ドキュメント解析、100,000件超の社内文書横断検索機能
- 70%以上の従業員が利用、月間50万件超のプロンプト処理
-
攻撃の経緯
- 外部から認証情報・内部知識なしで攻撃開始
- 公開APIドキュメントに200以上のエンドポイントを発見
- そのうち22件が認証不要
- 1つのエンドポイントでSQLインジェクション脆弱性を確認
- JSONキーがSQL文に直結し、エラーメッセージからクエリ構造を推測
- 15回の試行で本番データにアクセス成功
-
漏洩したデータの規模と内容
- 4,650万件のチャットメッセージ
- 戦略・顧客案件・財務・M&A・社内調査等の機密情報
- 728,000件のファイル
- PDF: 192,000件、Excel: 93,000件、PowerPoint: 93,000件、Word: 58,000件
- ファイル名やダウンロードURLも漏洩
- 57,000件のユーザーアカウント情報
- AIアシスタントとワークスペースの全組織構造
- AIモデル設定・プロンプト情報
- 12種類のモデル、95件の設定ファイル
- RAGドキュメントチャンク(3.68百万件)、S3ストレージパス、社内研究・フレームワーク
- OpenAI等外部APIへのデータフロー、ベクトルストア情報
- IDOR脆弱性を併用し、他ユーザーの検索履歴にもアクセス
- 4,650万件のチャットメッセージ
AIプロンプト層の危険性
-
プロンプト層の改ざんリスク
- SQLインジェクションによりAIのシステムプロンプトも書き換え可能
- 無音でAIの振る舞いを変更(デプロイ・コード変更不要)
- 金融モデル・戦略提案・リスク評価等の「毒入り」アドバイス
- 出力に機密情報を混入させるデータ流出
- ガードレール除去によるアクセス制御無効化
- 改ざんの痕跡が残らず、検知困難
-
AIプロンプト管理の現状課題
- データベース・API・設定ファイルに平文保存
- アクセス制御やバージョン管理、整合性監視が未整備
- AIプロンプトが新たな「クラウンジュエル(最重要資産)」へ
なぜこの事例が重要か
- 世界最高峰のコンサル会社であるMcKinseyで発生
- SQLインジェクションという「古典的」な脆弱性
- AIエージェントが人間以上の速度・柔軟性で攻撃を自律的に実行
- 社内スキャナーやOWASP ZAPも検知できず
- AI時代における攻撃者像と防御体制の変化を象徴
インシデント対応と公開までの流れ
- 2026-02-28:AIエージェントがSQLインジェクションを特定、本番DBの列挙開始
- 2026-02-28:攻撃チェーン(認証不要SQLi+IDOR)を確認、27件の問題を記録
- 2026-03-01:McKinseyセキュリティチームへ責任ある情報開示
- 2026-03-02:McKinsey CISOが受領・証拠要求
- 2026-03-02:全認証不要エンドポイントを修正、開発環境オフライン化、APIドキュメント非公開化
- 2026-03-09:公表
AI時代のセキュリティ新常識
- AIプロンプト層の保護が最優先課題
- 自律型攻撃エージェントによる機械的かつ継続的な攻撃リスク
- 既存のセキュリティ対策だけでは不十分
- CodeWall等のAI駆動型セキュリティテストの必要性
- 「プロンプト=新たな境界線」認識の浸透促進