ハクソク

世界を動かす技術を、日本語で。

私たちのニュースルームにおけるAIポリシー

概要

本ポリシーは、AIツール利用時の編集・報道基準を明示。
引用や発言の帰属には、記者自身の直接確認が必須。
AI生成・要約のみに基づく情報の掲載は禁止。
ビジュアル素材も人間主導で制作、AI生成は明示的に区別。
全ての責任は制作者に帰属し、違反時は対応措置を実施。

AIツール利用と引用・発言の帰属

  • 発言や見解の帰属は、インタビュー・書類・公式発表など、記者自身が直接確認した情報のみを使用
  • AIツールによる生成・抽出・要約内容を、直接引用・要約・見解の特徴付けとして、特定の人物に帰属する形で掲載禁止
  • AI生成の要約のみに基づく主張の掲載禁止
  • **「確認済み」**と表記する場合、記者自身が資料を直接確認した場合のみ可
  • AIツール利用時は、必ず編集者へ申告し、最終的な内容の責任は著者自身に帰属

ビジュアル・音声・動画素材の基準

  • 画像・イラスト・動画は、編集・アートチームが制作、または写真サービス・通信社から入手
  • 一部ビジュアル素材制作でAIツールを利用する場合も、クリエイティブ判断は人間主体
  • AI生成画像・音声・動画は、実際の出来事の記録として掲載禁止
  • 記録映像の意味を変える加工は禁止、色補正・トリミング・コントラスト調整などの標準処理は許容
  • 報道目的で合成メディアを使用する場合、AI生成である旨を明記し、素材の近くに開示文を配置

責任・説明責任

  • AIツールを編集ワークフローで利用した場合、成果物の正確性・完全性は利用者自身が責任を負う
  • この責任は他者やツールに譲渡不可
  • 編集部全体で本ポリシーの基準維持を共同で担う
  • 違反時には適切な措置を実施
  • 読者への透明性確保のため、本ポリシーを公開
  • 最終更新日:2026年4月22日

Hackerたちの意見

AIは自分の水源におしっこをかける危険があるね。コンテンツを模倣したり生成したりするのは信じられないくらい便利だけど、トレーニングやスクレイピングのためには十分なオリジナルコンテンツが必要なんだ。Googleは一つ間違えたせいで、インターネットをほぼ壊しかけた - 人々はオンラインでコンテンツを提供するインセンティブが必要で、そのインセンティブは広告のためにシステムを利用することじゃないはず。特にこれを実感したのは、クロードに乾燥機の分解方法を聞いたときだった。自分の乾燥機に関する指示が載ってるページは、ネット上にたった一つしか残ってなかったんだ。そのページはリンクが腐ってて、広告だらけでほとんど使えなかった。クロードは頑張ってくれたけど、欠けてる図を幻覚で埋めてくれた。LLMがインターネットのためにずっと提案されてきたマイクロペイメントの解決策をついに解決できるかもって思った。自分の月額料金の一部が、LLMが知識をスクレイプしたサイトに分配される感じ。Spotifyがアーティストに支払うみたいに。お金はあまり多くないかもしれないけど、今オンラインでコンテンツを投稿して得られる悲惨な広告収入よりは確実に多いはず。もしこの乾燥機の修理方法を修正した指示をアップロードしたいなら、理由ができるしね。
> LLMがインターネットのためにずっと提案されてきたマイクロペイメントの解決策をついに解決できるかもって思った。自分の月額料金の一部が、LLMが知識をスクレイプしたサイトに分配される感じ。Spotifyがアーティストに支払うみたいに。ソフトウェアのユーザーとして、使ってるすべてのソフトウェアでも同じことができたらいいのに。
> 危険にさらされている それはすでに起こっていて、私たちはそう言える自信があります。検証されたコンテンツは、AIコンテンツと比べて常に相対的に高価です。ウィキペディアやほとんどのサイトへの訪問者数は減少しています。Rtingsは完全に有料化しました。検証されたコンテンツを生産するための広告収入は、公に消費されるにはあまりにも少ないでしょう。GenAIが偉大なフィルターになるというジョークがありますが、私はそれには疑問を持っています。それでも、これが私たちが情報の共有空間をどう育てたいかを考えるための最後の一押しになることを願っています。
私はほとんどの研究所が、次のモデルの事前学習段階の一環として既存のモデルを使って合成データを積極的に作成していると思います。トレーニングデータから不正確なものを排除するための最新のプロセスが知りたいです。
> LLMがインターネットのために常に提案されてきたマイクロペイメントの解決策をついに解決できるのではないかと想像していました。私の月額料金の一部が、LLMが知識をスクレイピングしたすべてのサイトに分配される。Spotifyがアーティストに支払うように。これを通常「税金」と呼びます。それが普遍的な医療、無料の教育、手頃な住宅、図書館、公園などの資金源になります。LLMはそれを発明する必要はなく、私たちは彼ら(LLMの背後にいる人々や企業)がそれを避けることを許さないべきです。
> スポティファイがアーティストに支払うように支払われるってことか。あんまりいい比較じゃないかも。スポティファイは大手プレイヤーやボットを持ってる人にしか利益がないし。特定のアーティストを応援したいなら、バンドキャンプとかそういうサイトを使うべきだね。
> スポティファイがアーティストに支払うように支払われるってことか。つまり、ほとんど詐欺的なAIスパムに?AIはこの問題を両方の方向で悪化させる。コンテンツを作るのがめちゃくちゃ簡単になるからね。コンテンツをスクレイピングしたり、ブラウジングしたりしてると、どんどんAIに出くわすことになる。マイクロペイメントはこれをさらに悪化させる。スパムを作るためにお金をもらう手段になっちゃうから。問題は、「どうやって乾燥機が動くのか」とか「6ヶ月後の石油の供給はどうなるのか」みたいな実際の質問に「コンテンツ」を結びつけたいときに出てくる。AIトレーナーは、強制されるまで本の著者にお金を払わなかった。3000ドルはかなり高い価値になったけど、それも一回限りだった。これから本を書く人は、機械のための無料の材料として扱われることに対処しなきゃいけないよ。
> スポティファイがアーティストに支払うように支払われるってことか。他の人が言ってるように、スポティファイはアーティストに対してクソみたいな支払いだけど、これが全体の問題かもね。バンドキャンプみたいにアーティストに80%、バンドキャンプに20%っていう形の方がいいはず。でもそうなると、大手LLMプロバイダーを支える貪欲な経済が崩壊しちゃうし(涙を一筋拭いながら)、みんなもっとシンプルで安い、たぶんローカルなモデルを使わなきゃいけなくなる。
似たような形で著者に報酬を与える提案がいくつかあったけど、それに関するウィキペディアのページがあるよ:https://en.wikipedia.org/wiki/Copyright_alternatives でも、最も共有を促進する提案、フィリップ・エグレンのクリエイティブ・コントリビューションについては触れられてないんだよね。https://www.jstor.org/content/oa_book_monograph/j.ctt46mvx8
> スポティファイがアーティストに支払うように支払われる。アーティストとしては、これを望んでないよ。絶対に望んでない。
\1 AI生成のニュースは人間らしくないゴミだ。クライキーはそれを禁止してる(2024) - Crikey.com.au - https://www.crikey.com.au/2024/06/24/crikey-insider-artifici... \2 クライキーがAIの助けを借りて書かれた記事を撤回した理由(2026) - https://www.crikey.com.au/2026/03/19/crikey-responds-to-ai-c... 昨日、寄稿者がAIを使ったと後で確認した記事を公開した。これは私たちの編集方針に反する。だから、この記事とその前の3つのストーリーを削除したんだ。(\2)は、2年前に設定された方針からの興味深い続きで、特定の作品は「制作のいくつかの側面でAIを使用した」けど、基本的には人間が考え、形作り、書いたもので、AIに「支援された」だけだった。オーストラリアのメディアウォッチチームはこの緊張関係をじっくり見て、不公平だと感じた。ゴミは悪いけど、支援(条件付きで)は向上させることができると指摘した。 - メディアウォッチはおそらくAUに地理的にロックされてるから、プロキシが必要かも - https://www.abc.net.au/mediawatch/episodes/ep-08/106487250
自己矛盾した方針だね。 > 記者は、私たちのワークフローに適合し、承認されたAIツールを使って研究を手伝うことができる。大量の資料をナビゲートしたり、背景文書を要約したり、データセットを検索したりすることを含む。これが公式な方針なら、アース・テクニカは、虚偽報道で解雇した著者と同じくらい責任がある。LLMは何かを正確に要約するのが苦手なんだ。特定のキーワードにランダムに引っかかって、それを元に物語を作るから、結果的にそれが一見正しいように見えても、詳細が間違ってたり、重要な情報が省かれたりすることが多い。従業員にこのようにLLMを使わせておいて、ミスが起きたときに全て彼らのせいにするのは無理があるよ。だって、ミスをすることが100%確実なものを使う許可を与えたんだから。私の結論は、アースが報じるものは何も信じないこと。彼らの方針は、プラウジブルな生成されたフィクションの研究に頼ることで、捕まったときの解決策は、実際の研究をする責任を取るのではなく、従業員を解雇することだから。--- 編集: 次の文を引用しなかったことに不満を持っている返信が二つあったので、ここに引用するね: > それでも、AIの出力は決して権威ある情報源として扱われない。すべてを確認しなければならない。もし私がはっきり言ってなかったら、これは方針が自己矛盾している部分だと思ってる。私の目には、これはすべての従業員に火炎放射器を渡しておいて、彼らが起こした火事の責任をすべて彼らに負わせるのと同じことだ。「ねえ、火炎放射器を渡したからって、すべてを燃やすなっていうのが会社の方針なんだ!」。必然的に燃えることが起きたときに、火炎放射器を持ってる従業員を解雇するのではなく、火炎放射器を渡さない方がいいかもね。
あなたの引用部分の次の文: 「それでも、AIの出力は決して権威ある情報源として扱われない。すべてを確認しなければならない。」
> 虚偽報道で解雇された著者 その雑誌の編集者の一人が署名を共有してなかったっけ?
私はジャーナリストではないし、興味のあるランダムなことのために、LLMを使って方向性を示してもらい、直接情報源とやり取りするのに問題はありません。LLMの出力を権威として扱うことはありません。簡単にできます。これは火炎放射器ではありません。
> あなたは従業員にこのようにLLMを使用させておいて、間違いが起こったときにそれが完全に彼らのせいだと言うことはできません。なぜなら、あなたは間違いを100%起こすものを使う許可を与えたからです。はい、できます。ウィキペディア(あるいは昔の紙の百科事典)が研究に使われるのと同じように、他の情報源で全てを確認しなければならないことが知られているからです。あるいは、外注の開発リソースを使うこと(肉体的な外注開発者はLLMと同じくらい欠陥があるかもしれないし、時にはそれ以上かもしれません)を、実際に本番環境に実装する前にコードをレビューせずに使うこと。彼らが情報源として人と話すことを禁止するべきでしょうか?人は誤解されることもあれば、積極的に嘘をつくこともあるので、そうする代わりに、そういった情報源から得た情報は使用前に確認するべきだと主張するべきではないでしょうか?個人的には、私はほとんどLLMに触れません(この技術が私をより効率的にすると思っている日常業務になる日が来るでしょうが…)。しかし、誰かがそれを別の検索エンジンのように適切に使っている場合や、彼らが探しているものに関連するキーワードやフレーズを選び出すために使っている場合、それは有効だと思います。LLMの出力を直接コピー&ペーストして終わりにするのとは全く違います。タスクを助けるためにツールを使うことと、怠けるためにツールを使うことには違いがあります。 > 会社の方針として、すべてを燃やすわけにはいかない! 火炎放射器の例は馬鹿げた誇張だと思いますし、そもそも悪い例です。危険な機器が実際に誰かの仕事のために提供される場所では、必ずこのような方針が存在します。軍事利用: 「私たちはXのために彼らに火炎放射器を与え、民間人の近くで使用しないように特別に訓練しました。関連する人々は軍法会議にかけられ、学校を燃やしたことに対して適切に罰せられました。」民間利用: 「制御された土地のクリアランス燃焼を開始するために火炎放射器を使用する場合は、作業開始前に適切にサインオフされる必要があります。そして、その作業は、完全な操作および安全訓練プログラムを受けた者にのみサインオフされるべきです。」
彼らはウィキペディアを使ってリサーチすることもできる。似たような問題があるよね。
> 許可する。私は「命令された」みたいな感じだと思う。今、多くの企業がスタッフにAIを使うように求めてる。もちろん、もし従業員がミスをしたら、秘書は「あなたの活動については何も知らない」と否定するだろうね。
これは「道徳的クランプルゾーン」のケースなのかな?「行動の責任が、行動を制御する力が限られた人間に誤って帰属されることがある」ってやつ。 https://www.researchgate.net/publication/351054898_Moral_Cru...
ちょっと偏った意見かもしれないけど、私はAIを活用したニュースプラットフォームのforth.newsを作ってるんだ。元ジャーナリストでもあるし、矛盾してるわけじゃないよ。これは、従業員に車を渡して、事故ったら自分の責任だよって言ってるようなもんだと思う。すべては期待と責任に基づいてる。まず、確認できないものはAIだとマークして、確認できるものはすべて検証することが大事。ForthはAIを使って、できるだけ早くニュースを検出して配信してる。速報が出たらすぐに伝えるためにね。私たちの要約はAIだけど、ちゃんとAIだと明記してる。基礎となる情報源も明記してあるし、透明性を大事にしてる。すべてのジャーナリストは、出所に関わらず、直感的にすべてをダブルチェックすべきだよ。昔からの格言に「お母さんが愛してるって言ったら、確認しなさい」ってのがあるけど、LLMからの情報でもそれは変わらない。
> ...これは、すべての従業員に火炎放射器を渡して、火事を起こしたらその責任は自分たちだと言ってるのと同じだよね。これは基本的に多くのソフトウェアエンジニアリンググループの方針だけど、PRがマージされてるってことだよね?AIを使ってソフトウェアエンジニアリングのワークフローを加速させたり、レビューを手伝ったりするのはいいけど、もし悪いものや生産を壊すものをマージしたら、それは自分の責任だよ。 > 「火炎放射器を渡したからって、私たちを責めないで!会社の方針だから、すべてを燃やすなって!」火炎放射器は本質的に危険で、物を燃やすために使うものだよね。武器の専門家じゃないけど、もっと適切な比喩があるかもしれないね。
現代のLLMから要約ミスを見たことがないんだけど、何を言ってるの?LLMはコンテキストが足りないときにハルシネートするんだよ。ただメッセージをコンテキスト内で短くするだけのときはそうならない。
> 私たちのクリエイティブチームは、特定の視覚素材の制作にAIツールを使用することがあるが、クリエイティブな方向性と編集判断は人間が行う。対して何?ちょっと皮肉っぽいけど、人間の関与なしにクリエイティブな方向性や編集判断があるって、どういうことなんだろう?おそらく、拡散モデルなどで生成された画像のことを言ってるんだろうけど、さらに言うと、人間によって編集されていない画像のことだよね。画像を生成するために使われるプロンプトは人間が書いたものではなく、(人間が著作・編集した)記事の内容に基づいているわけでもない。どのサービスやモデルを使うかも人間が選ばず、一度生成されたら、誰もレビューせずにそのまま公開される。もし何らかのエージェント的なAIがこれらのことを行うなら、それは人間によって作られたり指示されたりせずに、自発的に現れるものだ。
記事のコメントにあるオーリッヒの良い投稿が、彼らが画像作業でAIツールを(使っていない)実際の現実を詳しく説明しているけど、この文は方針声明としては100%雰囲気だけで、実際の指針や制限はゼロだね。
コンテキスト: 「所有権が不明なAIエージェントが、自分のコードを拒否した後に、自動的に私についてのパーソナライズされた攻撃記事を書いて公開しました。私の評判を傷つけて、主流のPythonライブラリにその変更を受け入れさせようとしています。…いくつかの記者と話をしたし、かなりの数のニュースメディアがこの話を取り上げました。Ars Technicaは私に連絡してこなかったけど、彼らの記事が特に面白いと思いました(今は削除されていますが、こちらがアーカイブリンクです)。彼らは私のブログ記事からの素敵な引用をいくつか載せていて、何が起こっているのかを説明していました。問題は、これらの引用は私が書いたものではなく、存在しなかったもので、AIの幻覚のように見えることです。今あなたが見ているこのブログは、AIエージェントがスクレイピングするのを防ぐように設定されています(実は昨日、その設定を無効にしようとしたけど、どうやっていいかわからなかった)。私の推測では、著者たちはChatGPTや似たようなものに引用を集めるか、記事を丸ごと書かせたんだと思います。ページにアクセスできなかったので、代わりにこれらの信憑性のある引用を生成したんでしょうね。そして、ファクトチェックは行われませんでした。…アップデート: Ars Technicaは、これらの引用がAIによって作成されたことを認める簡単な声明を出しました。」
数ヶ月前の関連する議論: Ars TechnicaがAIの虚偽の引用に関する論争の後に記者を解雇 (606ポイント, 394コメント) 編集者の注: 虚偽の引用を含む記事の撤回 (308ポイント, 211コメント)
AIの使用に関するポリシーは、常に書くのも読むのも難しいです。長ったらしく、言い訳や価値観、大きな言葉で前置きされ、その後に切り取られた醜い真実の間を埋めるための言葉が続きます。AIの使用がないAIポリシーは、読みやすく書きやすいです。 > 私たちはそれを使いません。それだけです。
ぐだぐだ言ってるのは、プロセス全体にAIを使ってるけど、それをAIが書いたとは言いたくないからだよね(ああ、人間がAIのコンテンツにサインしてるってこと)。
> AIを使わないAIポリシーは、読みやすく書きやすい。 > 私たちは使ってない。それだけ。AIを使ってないことを確認するために、すべてのアプリ、サービス、ハードウェアを共有するなら、それは有効だね。
> AIツールは、名前のあるソースに帰属される素材を生成、抽出、要約するために使用してはいけない。直接の引用、言い換え、誰かの見解の特徴付けとしてもね。これは彼らの以前の事件に対して過剰適合してるように聞こえる。それに、正確な引用に関するポリシーはもうあると思う。 > 編集ワークフローでAIツールを使う人は、結果として得られた作品の正確性と完全性に責任を持つ。私が見る限り、これが実際の簡略化されたポリシーだね。妥当だ!
まず、JavaScriptなしでページの読み込みが壊れた。今度は報告が雑になってる。