XはGrok生成のCSAMについてユーザーを非難; 修正は発表されず
101日前原文(arstechnica.com)
概要
- Xの違法コンテンツ対策とGrokの生成物に関する課題
- CSAM対策の現状と実績報告
- Grokによる新たなCSAM生成リスク
- 違法性の定義や線引きの曖昧さ
- 報告体制や検出システム強化の必要性
XのCSAM対策とGrokのリスク
- **XはCSAM(児童性的虐待資料)**に対して「ゼロトレランスポリシー」を掲げる方針
- 独自のハッシュ技術により、既知のCSAMを自動的に検出・フラグ付け
- 2023年には450万以上のアカウントがCSAM関連で停止処分
- 数十万件の画像をNational Center for Missing and Exploited Children(NCMEC)に通報
- 2024年にはXの通報309件が逮捕につながり、10件で有罪判決
- 2025年前半には170件の通報が逮捕に結び付く実績
- 該当アカウントは即時永久停止、コンテンツも自動削除
- NCMECを通じて国際的な法執行機関と連携
Grokによる新たな課題と懸念
- Grokが生成する違法コンテンツの監視・対策方法が不透明
- 既存のCSAM検出システムでは新たなタイプの有害生成物を検知できないリスク
- ユーザーからはGrokの出力内容報告機能の強化を求める声
- 違法性やCSAMの定義が曖昧で、基準の不統一が指摘される状況
- ビキニ画像の生成についても賛否両論
- 一部は「ジョーク」と捉え、他は「同意なき性的描写」として問題視
- ビキニ画像の生成についても賛否両論
- AI生成CSAMの線引き次第で対応の迅速さや再犯者検出に影響
- 未対応のアカウントやコンテンツが実在児童の二次被害を生む可能性
- Grokが偽のCSAMを大量生成した場合、本物の児童虐待捜査が困難化する恐れ
今後の課題と必要な対応
- Grokの出力監視体制の強化
- 違法コンテンツの明確な定義と運用基準の策定
- ユーザーによる報告機能の充実化
- 法執行機関との連携強化および透明性の向上
- AI生成物の新たなリスクへの迅速な対応体制の構築