ハクソク

世界を動かす技術を、日本語で。

アース・テクニカ、捏造された引用を巡るAI論争で記者を解雇

概要

Ars TechnicaのAI記者Benj Edwardsが、AI生成の偽引用問題で解雇。 問題の記事はAIツールによる誤った引用を含み、すぐに撤回された。 Edwardsは全責任を認め、同僚の関与を否定。 メディア業界ではAI活用の是非や倫理基準が大きな課題となっている。 AIの誤用と人為的ミスが重なる現代メディアの混乱を象徴する事件。

Ars TechnicaのAI記者解雇騒動

  • Ars TechnicaがAI担当のベテラン記者Benj Edwardsを解雇
  • 発端は、AIが生成した偽の引用を含む記事の公開と撤回
  • 記事は、AIエージェントがエンジニアScott Shambaughに関して誤った内容を掲載
  • Shambaugh本人が「その発言はしていない」と指摘、編集長Ken Fisherが謝罪
  • 編集長は「AIツールで生成された偽引用が含まれていた」と説明、重大な基準違反と認定
  • 調査の結果、「孤立した事例」と判断、他の記事への波及は否定
  • EdwardsはSNS(Bluesky)で**「全責任を負う」**と表明
    • 体調不良で寝込みながら作業中、Claude CodeベースのAIツールで引用抽出を試行
    • ツールがうまく動作せず、ChatGPTで原因を確認しようとした際に誤って引用をパラフレーズ
    • 記事自体は人間が執筆、AI生成記事は会社方針で禁止と強調
  • 共同執筆者Kyle Orlandへの責任は完全否定
  • 読者からは強い批判と失望の声が多数寄せられた
  • 2月27日、クリエイティブディレクターAurich Lawsonが「社内調査は終了、適切な対応を実施」と発表
    • 近くAI活用方針ガイドラインを公開予定
    • 人事に関するコメントは控える姿勢
  • 2月28日、Edwardsの経歴が過去形に変更され、退職が事実上確定
  • 関係者からの追加コメントや詳細説明はなし

AIとメディア業界の倫理問題

  • 今回の件は、AI活用に関するガイドラインの未整備が原因の一つ
  • メディア業界では、AI導入の圧力と倫理的懸念が交錯
    • 著作権問題やAI企業との契約交渉
    • AI生成のフェイクニュースや誤情報の増加
    • Googleの「AI Overviews」によるトラフィック減少
  • ジャーナリストや読者がAIとの距離感を模索する過渡期
  • AIの限界を熟知した記者であっても、人為的ミスにより大きな問題を引き起こすリスク
  • Edwards本人も「AI記者がAIの幻覚でつまずく皮肉は理解している」と反省

AIとメディアの今後

  • AIと報道の関係は今後も議論と試行錯誤が続く見通し
  • 読者・メディア双方が透明性信頼性を求める時代
  • AIガイドラインの整備と運用が今後の鍵

Hackerたちの意見

「エドワーズは、撤回された記事の共著者であるサイトのシニアゲーム編集者カイル・オーランドが『このエラーには一切関与していない』と強調した。」オーランドは本当に謝罪したの?詐欺的な引用を含む記事を書いたのに。
「私は常に、そしてこれからも、記事が公開される時点での知識の範囲内でそのルールを守っていく。」非謝罪の blanket denial での修飾語の多用は怪しいよね。この人が来月も仕事があるかどうか、Polymarketはどこにあるの?
記事が撤回されたことについての以前の議論のコンテキスト:
ありがとう!確かに、こちらが順番(いつも通り逆順)です。もし欠けているスレッドがあれば追加できるよ… OpenClawは危険だ - 2026年2月(93コメント)AIエージェントが私に対するヒット記事を公開した - フォレンジックとその後の影響 - 2026年2月(82コメント)編集者の注記:捏造された引用を含む記事の撤回 - 2026年2月(205コメント)AIエージェントが私に対するヒット記事を公開した - もっと色々起こった - 2026年2月(624コメント)AIボット crabby-rathbun はまだ続いている - 2026年2月(30コメント)「AIエージェントのヒット記事」状況は私たちがどれだけ愚かに行動しているかを明らかにする - 2026年2月(125コメント)AIエージェントが私に対するヒット記事を公開した - 2026年2月(951コメント)AIエージェントがPRを開いて、閉じたメンテナを恥をかかせるブログ記事を書く - 2026年2月(750コメント)
ベンジと話があるんだけど。去年、私がバイラルになった時、ベンジが最初にインタビューしてくれたんだ。すごくクールな体験で、TwitterのDMでおしゃべりして、彼が私の仕事について記事を書いてくれた - 全体的にまあまあ良い仕事だった。その後、6ヶ月経って、私が関わっていた別のプロジェクトが盛り上がり始めた。彼に「取材したい?」って連絡したけど、返事がなかった。そしたら、テッククランチが私たちのプロジェクトについて記事を書いたんだ。再度ベンジに「今、取材してもらえますか?カバレッジができたので」と連絡したら、やっと返事が来たけど、彼は「以前のカバレッジがあるものについては報道できない」という指示があるから無理だって言われた。ちょっと変だなと思ったよ、特に私たちの関係がすでに築かれていたから。特に教訓はないけど、ジャーナリズムは時々かなり不透明だなって感じた。あ、これを読んでいる人へのもう一つのアドバイス - ジャーナリストから連絡が来たら、電話じゃなくて書面でやり取りした方がいいよ。言葉を正確に伝えられるから。
時々、人は忙しくて圧倒されるけど、ノーと言う方法がわからないんだよね。
あなたはLLmsが公に利用可能になった後に作られたアカウントで、身元を確認するための公のアカウントへのリンクもないよね。このコメントは、ジャーナリストが解雇された理由と同じように、あまり正確じゃないと思ってる。
見出しにはアースが記者を解雇したと書いてあるけど、私が見た限りではその事実を示す情報は記事に含まれていない。彼がもうそこにいないことと、アースが追加情報を提供しなかったことしかわからない。
どちらの側も何が起こったかについて声明を出していないけど、ベンジのブルースカイの投稿は、これによって辞職するような人の投稿には見えないね。
これが実際に起こったことかはわからないけど、少ないリソースでより多くを求める動きがあると、適切に仕事をする人よりもショートカットを取る人が評価されることになる。外から見ると、ジャーナリズムも少ないリソースでより多くをやろうとしているように見える。
それが基本的な問題だよね。ショートカットで95%の確率でそれなりのものが出て、誰もチェックしなかったら、ただ早いだけに見える。ジャーナリズムは他の分野よりも公に失敗することが多いからね。
正直言って、最近のGoogle AI Overviewの精度がすごく良くて、リンクをチェックすることがほとんどなくなっちゃった。2年も経たないうちに「ほぼ役に立たない」から「実際のGoogle検索」になったのは怖いよね。インターネットがどこに向かっているのか、コンテンツサイトがどうやって生き残るのか全然わからない。
AIの概要は、ほとんどの場合、内部のモデル知識から答えを合成するんじゃなくて、検索結果を直接要約してるからだよね。だから、今は事実のソースにハイパーリンクできるんだ。すごく単純なモデルでも、記事から関連するテキストを抽出できるけど、これが持続可能だとは思えない。結局、資金が減ってるソースから盗んでるわけだから。
怖いけど、ワクワクもするね。人間がちゃんとした判断を下している限り、質の高い情報源の需要はなくならないと思う。でも、AIに追いつくためには、コンテンツサイトは基準を上げる必要があるよ。もっと控えめな広告、表面的な内容は減らして、複雑だけど分かりやすい構造の深い記事、引用や図、データ、正確さを重視したものが求められる。今の論文並みの技術的な深さを持ったニュース記事が必要だね。
> 最近のGoogle AI Overviewの正確さはすごくて、リンクをチェックすることがほとんどなくなったよ。どうしてそう思うの?私の経験では、リンクはしばしば概要と矛盾しているか、サポートしていないことが多いんだ。
もっとリンクをチェックした方がいいと思うよ。引用にサポートされていない内容で返答することが何度かあったのを見たことがあるからね。過去の履歴を遡って例を探してみたけど、「linux shebang argument splitting」でAIから返ってきたのは、 > LinuxやほとんどのUnix系システムでは、シェバン行(例:#!/bin/bash ...)はデフォルトで引数の分割を行わない。インタープリタのパスの後の全ての文字列は、インタープリタに対して単一の引数として渡される。(これは正しい)…その後に、 > 現代のシステムで複数の引数をポータブルに渡すためには、-S(文字列分割)オプションを持つenvコマンドが標準の解決策だ。(`env -S`はポータブルではない。サブセットがポータブルかどうかは分からないけど、私は避ける傾向があるし、ちょっと複雑すぎるから、「ポータブルである」とは意見として呼ぼう。) (Linuxでの分割についての部分は少し編集したけど、以前は「-S」と「残り」に引数が分かれると言ってた気がするけど、これは大丈夫だった。) > 注意:-Sオプションは現代の拡張であり、利用できない場合がある。でも、これって、どっちなんだろう。
人々がAIの概要を嫌うのは分かるし、私もGoogleとAIは基本的に嫌いな人間なんだけど。でも、私はそれらを基本的に良いものだと思ってる。結局、ほとんどの時間、私はちょっとした事実を調べるためにグーグルしてるしね。過去10年間、情報を得るためにサイトをクリックする必要があった時は、SEOスパムだらけのゴミサイトばかりだったから、もうそれらと関わらなくて済むのはすごく嬉しいよ。もちろん、Googleはこの件についてあまり評価されないけど、結局彼ら自身の不正行為が全てのSEOスパムを生んだわけだし(そして、ひどいexpertsexchange品質の技術情報や、人生のストーリーを優先するバカなレシピサイトもね)…でも、少なくとも今はスパムに対する逆風があるからね。ここで報告している人たちが概要が常に間違っていると言っているのは…基本的に嘘をついてるんじゃないかな?それとも、彼らが報告しているパターンに対して深刻なネガティブバイアスをかけている可能性が高いと思う。概要は時々間違ってるけど、確かにそれは10%くらいの頻度で、いつもじゃないよ。多分、彼らはGoogleやAIに対して一般的に怒っているからバイアスがかかってるんだろうし、その気持ちは分かるけど…誤解を招くことでGoogleやAIに対する主張を強化することにはならないよ。正確で、みんなの経験に共鳴する方が、強い主張になるからね。
> 最近のGoogle AI Overviewの正確さはすごくて、リンクをチェックすることがほとんどなくなったよ。'ほとんど役に立たない'から'実際のGoogle検索'に2年もかからずに進化したのが怖い。定期的に間違っていることを知っていることを言ってくる。ログを取ったりはしてないけど、信頼性からは程遠い印象を受けてる。
まあ、この話を教訓として受け取って、キャリアや健康、財政を深刻に損なうようなことは絶対にしないでほしいな。
ニッチなものを検索してみて。自信満々で間違った、しかも見下したような答えが返ってくるよ。
AIの要約は、俺には何度も間違ってた。そもそも信用してなかったけどね。コンテンツサイトは、支援者(パトレオンやサブスタックみたいな)に頼る必要があると思う。クソだけど、これが今のインターネットなんだよね。
本当に?AIの概要には目立つ問題が繰り返し出てるのに気づいたよ。Googleで見つかる最初のRedditの投稿を信じるのと同じくらい危険だね。
これが最初に話題になったとき、著者の以前のストーリーをいくつか見てみたんだけど、証拠はなかったけど、彼がずっとLLMを使ってストーリーを生成してるんじゃないかって思ってた。Arsが「これは孤立した事件です」って声明を出したとき、私の反応は「多分、あんまり調べてないんじゃない?」だった。結局、ちゃんと調べたのかな?
もし本当なら悲しいね。AIが登場する前は、彼のフリーランスの記事を読むのがすごく楽しかったのに。
それに関して言えば、彼の文体はLLMが登場するずっと前から基本的に同じだったよ。
ジャーナリストやブロガーは、他人の失敗や謝罪について書くことが多いよね。どの謝罪が本物で、どれが非謝罪かを分析したり。今回の件では、Ars Technicaのオーリック・ローソンが、LLMが作り出した引用が含まれた元の記事を削除して、エラーを更新するんじゃなくて、あいまいな非謝罪を出したんだ。大企業や政治家がよくやるようにね。で、今になってその記者が解雇されたって知ったけど、Ars Technicaはそのことについての記事を一切出さない。問題を認めて行動や結果に対して率直でいることの価値については、言うべきことがあるよね。正直でいることで弱いとか脆弱だと思われることに対する怒りの時代に、Arsがどうあるべきかの灯台になってくれると思ってたのに。Ars Technicaがこんな状態になってるのは悲しい。
あなたは、記事の約20%が「クロード・コードに何かをやらせて、そのことについての記事を書かせた」みたいな内容になってるソーシャルメディアサイトに参加してるんだよね。だから、もしこれが悲しいことだと思うなら、心配してるだけじゃなくて、行動で示してみて。Ctrl+Wを押してみなよ。
なんか、すごく急いで自己防衛してる感じがする。AIに対する嫌悪感が強い中で、Arsは読者がその問題に気づいてる可能性があるから、スロップって知られるわけにはいかないと思ったんじゃないかな。間違いを犯したジャーナリストを切り捨てるしかなかったんだと思う、特にデリケートな話題だったしね。私たち読者には、これが単なる判断ミスなのか、悪い癖なのかは分からないけど、コミュニケーションはもっと良くなるべきだったよね。
これが起こったばかりなんだ。Arsが状況を検証する記事を出すまで、もう少し待ってみるよ。彼らは結構いい運営だと思うけど、出さなかったら…
僕が働いてる医療の現場では、正直に認めることが奨励されてて、大きな過失がない限り、あまり罰せられることはないよ。彼らはミスがどうして起こったのかを学ぼうとしてるし、今後それを防ぐ方法を探してるんだ。友達が言ってたけど、彼の会社では事故が起きても、誠実に対応すればWorkSafeは罰しようとはしないらしい。やっぱり、再発を防ぐために学びたいんだよね。罰を与えると、他の人たちがミスを隠そうとするだけだから、彼らは大きなチャンスを逃したと思う。解雇する代わりに、その人を座らせて、これがどれだけ良くないことか、信頼性を損なうことを理解させて、ちゃんと謝罪させるべきだった。倫理的な報告責任についての教育を受けさせるとかもできたはず。記事を隠すんじゃなくて、ミスや修正点を指摘するべきだよね。ミスを説明して、信頼性のある報告が優先事項だってことを伝えれば、その著者も再発を防ぐためのさらなる教育を受けられるだろうし。新しいポリシーも作れるよね。例えば、今後はAIを使って検索結果を出す記事は、その情報のソースを探す努力をしなきゃいけないとか。これが信頼を築くと思うんだ。
彼らがこのレベルにいるのは、編集者たちが常に基準が低かったからだよ。みんなはどう思うか分からないけど、Arsの見出しの50%は完全に誤解を招くものだと思う。彼らは何年もこの問題を抱えてる。クリックを得るためなら何でも出版するし、作家が嘘をついても気にしない。見出しが誤解を招くことも気にしない、むしろそれが目的なんだ。彼らは人を影響を与えたり操ったりするためにこの仕事に就いたのが明らかだよ。悪い人たちで、ひどい動機を持ってて、権力が unchecked なんだ。何か本当に悪いことが起こるまで後退しない。Arsの見出しは絶対に信じちゃダメだよ。
ニュース組織が誰かを解雇したって発表するのは普通なの?「人事についてはコメントしない」っていうのをそのまま受け取るべきかな。確かに、当時の記事の引用元の問題については報道してたけど、みんなが思ってたよりは早くなかったかも。でも、数日以内には出てたよね。
あのサイトはただのランダムなテックブログで、時間の無駄なコンテンツばっかり。基準なんてあるわけないじゃん。ニューヨークタイムズやワシントンポストだって、間違ったことを訂正なしで載せることが多いし。人々は、ジャーナリストが真実の灯台じゃなくて、ただの広告売りだってことを理解するべきだよ。彼らは広告を売るためにいるんだから、カメラの前で食べ過ぎる人のYouTube動画と同じだよ。ジャーナリズムは文字通りコンテンツ制作に退化しちゃって、ただ「content」ってIDのdivの中に何かを入れるために存在してるだけなんだ。
Arsのルーツはビデオゲームのブログやグラフィックカードのレビューにあるから、正当なジャーナリストじゃないんだよね。プロフェッショナリズムやジャーナリズムの義務なんて考えたこともないし、バイラル性や面白い意見だけを追求してる。
Arsはスタッフの解雇についてコメントしたことがないし、何度もそういうことがあったんだよね。誰かが入るときにはたまに記事が出るけど、誰かが辞めるときには絶対に出ない。今回の件の後に別の記事を出すべきだったと思うけど、スタッフについてコメントするとは思えないな。
サイトを尊敬していて、喜んで経済的にサポートしてるけど、結局これはArs Technicaとその編集者の失敗だよね。もし編集者がいるならだけど。これがただのランダムなブロガーだったら、完全に彼らの責任だよ。でも、これはArs Technicaの名の下に発表されたもので、内容の真実性をダブルチェックする人や何かがいたはずだよね。とはいえ、Ars Technicaにはエリック・バーガーやダン・グディン、ベス・モール、スティーブン・クラーク、アンドリュー・カニンガムなど、各分野でトップの貢献者がいるから、一回の失敗で組織全体を責めるべきじゃないと思う。
> とはいえ、Ars Technicaの寄稿者の中には、自分の分野で最高の人たちがいる。マギー・コーアスとジョン・ストークスが恋しい。
インターネット上で、事件Xをどう扱うべきかについて合意することは絶対にないよ。今の世界はAIとその位置づけを理解しようと必死になってる。理解したと思った瞬間に、また状況が変わるんだ。将来的には、このAIの使い方が期待されて、平均して人間よりもずっと良く機能するのは明らかだよ。多くの人が「そんなことない!」って感情的に反発するかもしれないけど、過去2年間に「そんなことない!絶対に!」って瞬間がたくさんあったから、これもそうなるとは思えない。だから、このジャーナリストを解雇するのは合理的じゃないと思う。彼らはツールを使うのが早すぎたけど、今がその「早すぎる」かどうかを判断するのは本当に難しい。これはニュースルームにとって反省の瞬間だったはずなのに、解雇に繋がったのはやりすぎだと思う。ニュースルームはそれで得られたの?再発を防げるの?元のミスは解決したの?これらの質問に対する答えは「はい」じゃないと思う。良い撤回、謝罪、今後の変化についての声明が必要だよね。そういうのが役立つんだ。
問題は責任だよ。記事に名前が載ってるなら、それはあなたの仕事なんだから。もし捏造した引用を含む記事を出版したら、それはAIツールを使ったかどうかに関わらず、あなたの責任だよ。結局、最後にボタンを押したのはあなたなんだから。