AI企業があなたに恐れを抱かせたい理由
6時間前原文(www.bbc.com)
概要
- AI企業Anthropicが開発した新モデルClaude Mythosの危険性を強調
- AI企業は自社技術の脅威を訴えつつ販売を進める矛盾
- 恐怖を煽ることで規制回避や市場独占を狙う戦略
- Mythosの実力やリスクには専門家から疑問の声も
- AIの規制や社会的責任についての議論の重要性
AI企業が自ら語る「危険なAI」の矛盾
-
Anthropicが開発した最新AIモデルClaude Mythosの危険性を強調
-
Mythosはサイバーセキュリティの脆弱性発見能力が人間専門家を大きく上回ると主張
-
「誤った手に渡れば経済・公共安全・国家安全保障に甚大な被害」と警告
-
しかし、実際には販売や提携を進める現実
-
AI企業が「自社技術は危険」と発信する独特なPR手法
- 例:OpenAIも過去に「GPT-2は危険」と発表しつつ後にリリース
- CEOたち自身が「世界の終わりを招くかもしれない」と発言
恐怖マーケティングの狙い
- 批判者によれば、AI企業は終末論で注目を集めることで
- 現在進行中の環境破壊や労働搾取などの現実的な問題から目を逸らす
- 技術の危険性を誇張し株価や市場価値を高める
- 規制当局に「自分たちしか制御できない」と思わせ規制回避を狙う
- 「唯一頼れるのはAI企業自身」という無力感の演出
- University of EdinburghのShannon Vallor教授の指摘
Mythosの実力と疑問点
- Anthropicは数千件の重大な脆弱性を発見したと発表
- 40以上の企業・団体と提携しセキュリティ強化を推進
- しかし、**誤検知率(False Positive Rate)**など業界標準の指標を公開せず
- 既存ツールとの比較検証も未実施
- AI Now InstituteのHeidy Khlaaf博士による懐疑的な見解
- 「Mythosに超越的な力があるという物語には多くのほころび」
AI企業のインセンティブと社会的責任
- OpenAIは非営利組織として設立されるも、後に営利化
- Anthropicも「安全性最優先」の方針を撤回し、株式公開を視野
- 企業インセンティブが行動を決定
- GoogleはAI兵器開発の「レッドライン」を撤廃
- 「市場支配の機会を善意で放棄する企業は期待できない」とVallor教授
終末論とユートピア論の両立
- AI経営陣は「破滅」も「救済」も同時に語る
- 例:Sam Altmanは「AIが気候危機解決や宇宙進出を実現」と主張
- Dario Amodeiは「データセンターに天才が集う国」と表現
- 終末論もユートピア論も規制やガバナンスを無効化する神話化
- 「AIは人間の制御を超えた存在」という誤った印象の拡散
AIは本当に制御不能か?
- 過去にも「Metaverseが世界を変える」「Bitcoinが通貨を置き換える」などの誇大な未来予測
- 実際にはAIも他の技術同様に規制・管理可能
- 核兵器や生物兵器ですら人間社会が規制してきた歴史
- 「AIだけが制御不能」とする物語への批判
結論:AI規制と社会的議論の必要性
- AIのリスクは現実だが、過度な恐怖や神話化は企業の利益誘導
- 社会がAIの未来を主体的に議論し、規制・ガバナンスを設計する重要性
- AIは「神」でも「悪魔」でもなく、人間が管理すべき単なる製品
参考:
- BBC「Tech Decoded」ニュースレター
- OpenAI、Anthropic、Google DeepMindなどの公式発表