シグナルのリーダーたちは、エージェンティックAIが不安定で信頼性のない監視リスクであると警告しています
93日前原文(coywolf.com)
概要
- Signalのリーダーシップがエージェント型AIのリスクに警鐘
- 39C3でMeredith WhittakerとUdbhav Tiwariが発表
- OSレベルのAIとプライバシー侵害の危険性
- エージェントAIの信頼性とセキュリティ問題
- 業界に展開の一時停止と対策の必要性を提言
エージェント型AIのリスクとSignalの警告
- SignalのMeredith Whittaker会長とUdbhav Tiwari副社長が、39th Chaos Communication Congress (39C3)で「AI Agent, AI Spy」を発表
- エージェント型AIが個人情報やデジタルライフ全体にアクセスする現状
- 同意なしの自動オプトインやマルウェアによる情報漏洩の懸念
- AIが自律的に行動するためには膨大な個人データへのアクセスが前提
Microsoft Recallの事例と脆弱性
- MicrosoftがWindows 11でRecall機能を導入
- 数秒ごとにスクリーンショットを取得し、OCRでテキスト抽出
- 全操作履歴を時系列データベース化、アプリやアクションごとの詳細な記録
- Recallのデータベースがマルウェアやプロンプトインジェクション攻撃に無防備
- これらの脆弱性がエンドツーエンド暗号化(E2EE)を形骸化
- Signalは画面録画防止フラグを導入したが、一時的な対策に留まる
エージェント型AIの信頼性問題
- WhittakerがエージェントAIの不確実性を強調
- AIは確率的であり、タスクの各ステップで精度が低下
- 仮に1ステップ95%の精度でも、10ステップで成功率約60%
- 30ステップでは成功率約21%、現実的な90%精度では**4.2%**に低下
- 最新モデルでも70%の失敗率を記録
プライバシーとセキュリティ確保への提言
- 現状では抜本的な解決策が存在しないことを明言
- 企業が取るべき対策
- 無謀なAIエージェント展開の停止
- デフォルトでオプトアウト、開発者の明示的なオプトイン必須化
- 徹底的な透明性と監査可能性の確保
- これらの対策を怠れば、消費者の信頼喪失とAIエージェント時代の危機
まとめ
- エージェント型AIのプライバシー・セキュリティ問題が顕在化
- Signalは業界全体の慎重な展開と対策強化を強く要請
- 業界の無策が、AI技術への信頼と未来を揺るがすリスク