メタとTikTokは有害なコンテンツを放置し、エンゲージメントを高めていると内部告発者が語る
45日前原文(www.bbc.com)
概要
- TikTokの急成長により、主要SNS企業がアルゴリズム競争を激化
- 利用者のエンゲージメント向上のため、有害コンテンツの表示が容認される傾向
- 社内告発者が安全性軽視や政治家優遇の実態を証言
- MetaやTikTokでの子ども・若者へのリスクや対策の不十分さが明らかに
- 企業は公には安全対策を強調するが、現場の実態は大きく異なる
SNSアルゴリズム競争と安全性軽視
- TikTokの爆発的成長により、Meta(Facebook・Instagram)や他のSNS企業がアルゴリズムの改良競争を加速
- 社内告発者によると、Metaの上層部は「株価下落」を理由に、ボーダーライン上の有害コンテンツ(ミソジニー、陰謀論等)の表示を容認
- TikTokでは、政治家関連の苦情が子どもに関する深刻な有害投稿よりも優先されるケースが発覚
- 政治家や政府との「良好な関係維持」を優先し、規制や禁止措置回避を重視する企業姿勢
アルゴリズムの危険性と現場の証言
- Metaの元研究者Matt Motylによると、Instagram Reelsは十分な安全対策なしにリリース
- Reelsのコメント欄では、いじめ・ヘイトスピーチ・暴力的発言など有害コメントの発生率がInstagram本体より大幅に高い傾向
- 安全対策チームの人員増強要望は却下され、リール推進には700人規模の人員が投入
- Facebook内部調査で「利益最大化のためにユーザーの幸福を犠牲にしている」との認識
TikTok内部の実態と告発
- TikTokの信頼・安全チームの内部ダッシュボードにBBCがアクセス、子ども関連の有害投稿が低優先度に分類されている事例を確認
- 一部の投稿(テロ組織への勧誘、犯罪助長等)が最優先で扱われていない実態
- 社内で懸念を上層部に伝えても、現場の実態に触れていないため問題視されず
- 告発者からは「子どもをTikTokから遠ざけるべき」との強い警告
アルゴリズムのブラックボックス性と技術的限界
- TikTok元エンジニアRuofan Dingによると、ディープラーニングアルゴリズム自体の動作制御は困難
- エンジニアは投稿内容の中身よりIDでしか認識しておらず、実際の有害性確認は安全チーム任せ
- アルゴリズム改良の度に「ボーダーライン」コンテンツが増加する傾向
若者への影響と社会的懸念
- ティーンエイジャーの証言で「暴力的・ヘイト的な投稿」が推奨され続ける現状
- アルゴリズムによる「過激化」やラディカリゼーションの被害事例
- 英国の対テロ警察専門家によると、SNS上での反ユダヤ主義・人種差別・暴力的投稿の「常態化」が進行
企業の公式見解と現実のギャップ
- Meta・TikTokともに「有害コンテンツを意図的に拡散していない」「安全対策に投資している」と公式声明
- TikTokは「政治家関連の優先は事実でない」「青少年保護機能を多数搭載」と主張
- 実際にはAI導入や人員削減の影響で、現場の安全対策能力が低下
SNS企業の競争と倫理的課題
- Instagram Reels導入時、Metaは「安全よりもスピード重視」の姿勢
- 有害コンテンツの方がエンゲージメントを生みやすく、リール担当チームは安全対策導入に消極的
- Crowdtangle創設者Brandon Silvermanによると、CEO Mark Zuckerbergは競合への危機感から「際限ない投資」を実施
- 安全チームの人員増強は後回しにされ、事業拡大が優先される企業文化
まとめ:SNSと社会の今後
- SNS企業はユーザー獲得競争の中で、安全性や倫理よりも成長・利益を優先する傾向
- アルゴリズムのブラックボックス化と現場のリソース不足が、有害コンテンツ拡散の温床
- 若年層や社会全体への悪影響が深刻化する中、企業の説明責任と規制強化の必要性が高まる