ハクソク

世界を動かす技術を、日本語で。

スロッピーパスタをやめよう

概要

  • AIの生出力をそのまま共有することのリスクと弊害
  • 執筆と読解の努力の非対称性が拡大する現状
  • 信頼性の喪失と検証コストの増大
  • 学習機会や信頼の悪循環の発生
  • 人間らしい執筆の重要性とAI活用時の倫理

AI生出力共有の弊害

  • AIの生出力をそのまま共有する行為は、ジャンクフードのような安易さと短期的な満足感
  • 受信者との信頼関係悪化や、自身の理解力低下を招くリスク
  • 執筆の労力読解の労力のバランスが、LLM(大規模言語モデル)の普及で崩壊
  • LLM利用によりテキスト生成コストは激減する一方、読者の負担は変わらず
  • LLM特有の冗長さが読者側の負担をさらに増大
  • チャットスレッド等で生出力を貼り付ける行為は、会話を圧迫し議論の妨げとなる「フィリバスター」化
  • 執筆は思考であり、書くことで自分の考えを深め、記憶や理解を強化
  • LLMにタスクを委ねることで認知的負債が生じ、理解力や記憶力の低下に繋がるという研究結果

信頼性と検証コストの問題

  • LLM以前は著者の専門性や視点が文章から読み取れ、読者は信頼性を判断可能
  • LLMは「最も確からしい次の単語」を生成する仕組みであり、**幻覚(ハルシネーション)**や事実誤認のリスク
  • モダンなLLMは情報検索ツールを活用するが、完全な誤情報防止には至らず
  • 検証作業の有無が不透明なため、受信者は全てを「未検証」とみなす必要
  • LLMの権威的な口調が読者の判断をさらに難しくし、専門性の有無が見えにくくなる
  • 信頼の連鎖が曖昧化し、誤情報発生時の責任所在も不明瞭
  • Trust but verify(信頼して検証)」という原則が機能しなくなり、全てが「未検証」として扱われる
  • 一度信頼が損なわれると、将来のメッセージ全体への不信感に波及

学習・信頼の悪循環

  • 生出力共有は、送信者の学習機会や信用を損ない、受信者は労力を浪費し信頼を失う悪循環
  • 認知的不協和が生じ、受信体験が不快となる要因

人間らしい執筆の価値

  • 執筆は読解よりもコストが高かった時代、文章には「人間が考え抜いた証」があったという指摘(Alex Martsinovich)
  • 磨かれたAI回答でも、内容が正しくても冷たく感じる」との意見(Blake Stockton)
  • 自分で読んでいない文章を公開するのは失礼。自分が書くのにかかった時間より読者が読むのに時間がかかるものは公開しない」という倫理観(Simon Willison)

まとめ

  • AI生出力の安易な共有は避けるべき
    • 自身の理解・信頼性の維持
    • 受信者への配慮と誠実な情報提供
  • AI活用時は必ず自分で内容を精査・編集し、人間としての責任を持つことが重要

Hackerたちの意見

職場で生のChatGPTの出力をそのままチャットに貼り付ける人たちにうんざりして、「スロッピーパスタ」って言葉を作ったんだ。これが失礼な理由と、代わりにどうすればいいかのガイドラインを書いたよ。スロッピーパスタとは、誰かに無視され、洗練されず、頼まれもしない状態でコピペされたLLMの出力のこと。スロップ(低品質なAI生成コンテンツ)とコピーパスタ(批判的思考なしにコピー&ペーストされたテキスト)を組み合わせた言葉だ。送信者が自分でやらなかった仕事を受け取る側に押し付けるから、失礼だと考えられているんだ。
「スロップ」という言葉が広まって嬉しいよ。現象を簡潔に表現するのにぴったりで、同時に柔軟性もあるしね。スロッピーパスタ、マイクロスロップ、ワークスロップ、エンスロッピフィケーション、などなど。
この記事の提案は、スロッピーパスタをやめさせるためにその人たちを説得することだけど、私はむしろスロッピーパスタを受け取った側が何ができるかに興味がある。どうやって同僚に未確認のAI出力をやめさせるか、私たちの間に緊張を生まないように言えるだろう?今までそれを言ったことはないけど、彼らのプロ意識の欠如を暴露することになるかもしれないし、もし私が間違ってAIだと思ったら、単に彼らの仕事が悪いAIのスロップに見えるって言ってることになるからさ。
スロッピーパスタの中でAIが間違っているところを指摘するのは、慎重にやれば結構うまくいくことがある。恥ずかしさを避けることが強力な動機になることもあるしね。私にとって一番興味深い出来事は、誰かが私たちのDiscourseスレッドをAIに貼り付けて、自分の気持ちが傷ついたのを確認しようとしたことだ(その後、完全におべっかを使うプロンプトを出した)。そして、その返答を私を非難する形で投稿してきた。モデレーターは私が気づく前にその件を処理してくれたけど、私はその後同じことをやって、違うプロンプトを使って、出力を共有しなかった。面白い経験で、探求でもあった。以来、私は自分の文章にもっと気を使うようになって、時々似たようなプロンプトを使ってトーンを調整したり、自分を指摘したりしている。最初の草案は自分で書くことが多くて、編集にAIを頼ることはほとんどないよ。
これを直接共有できるように、またはその議論をするためのフレームワークを提供するつもりで書いたんだ。nohello.netやdontasktoask.comみたいな感じでね。私は、同僚とのサイドバーでの会話が成功することがある(例えば、彼らがスロップを貼り付けたメインの公開スレッドではなく)ので、なぜそれが混乱を招くのかを説明し、行動をどう変えられるか提案している。AIの適切な使用や貢献に関するより広いポリシーを提案したり、貢献したりすることができれば、そのポリシーを会話の正当化として活用するのも有効かもしれないね。
>どうやって同僚に未確認のAI出力をやめさせるか、私たちの間に緊張を生まないように言えるだろう?人ではなくパターン?一般的なチームレビューとかがいいかも。技術リーダーがそれを押し付けてこなければね。
同僚に未確認のAI出力をやめさせるには、どうやって緊張を生まないように伝えればいいかな?そのまま続けてたら、自分たちが自分の仕事を奪ってることに気づかせたい。「AIにただのパイプとして機能してるだけなら、君にはどんな価値があるの?」
「お聞きしてもいいですか?LLMからの未編集の出力を送ってもらったことはありますか?あなたの考えを聞きたいです!」
> 「同僚に、緊張を生まないように未確認のAI出力をやめさせるにはどう言えばいい?」 そんなことは言わないよ。彼らの出力を無視するための議論を用意しておくんだ。
ほんとそれ。長文に対して一行だけ返すのが多いかな。向こうはまた長文送ってくるのかね?
> 「同僚に未確認のAI出力をやめさせるにはどうすればいいですか?私たちの間に緊張を生まないように。」 緊張を受け入れなよ。緊張は人間らしいから。
関連: https://news.ycombinator.com/item?id=44617172
100% - これにインスパイアされて、「AIの出力を人に見せるのは失礼だ」という言葉を引用したよ。ディスカッションをリンクしてくれてありがとう!
この種の行動に怒っている人たちにはあまり同情できないな、たとえ私も他人のAI出力には軽蔑を感じているとしても。こういうことをする人たちは、このマニフェストを読むような人じゃないしね。私たちは長い間、バイトコンテンツを作ってきたけど、人間はそれを洗練された方法で管理するためのツールを与えられてこなかった。AIが登場する前のインターネットは、高品質なコンテンツや議論の拠り所ではなかったし。私たちコンテンツ消費者には、コンテンツをフィルタリングするためのより良いツールが必要だ。皮肉なことに、AIがそれを実現するかもしれない。人々が「自分のAI」であればAIコンテンツを気にしないのは面白いと思う。誰かがそれを他人のAI出力だと思った瞬間、反応は本能的で…まるで何かに騙されたかのように感じるんだろうね。最終的には、デッドインターネット理論の実現に向かっているのかもしれない。つまり、AIがコンテンツを作り、AIがそのコンテンツを探し、ユーザーはそれに直接関与しない世界。10秒でAIに何かを書かせたその人も、AIに消費されて、あなたがAIに呼び出して要約を頼むときに初めて表に出てくる。これが全体の非効率性に恐怖を感じさせるなら、まあ、言った通り、インターネットが効率の拠り所だったわけじゃないしね。私たちは何年も、すべての技術と力が猫の動画を共有するためだけに使われていることを笑っていたんだ。
> 人々が「自分のAI」ならAIコンテンツを気にしないのが面白いよね。他の誰かのAI出力だと思った瞬間、反応がすごく強烈になる。これって明らかじゃない?もし自分の質問に対するAIの反応を見たかったら、自分で聞くよ(もしかしたらもう聞いたかも)。人間に聞いてるんだから、人間の反応が見たいんだよね。ファーストフードはたまに食べるけど、座って食べるレストランでビッグマックが出てきたら、さすがにイラッとするわ。
コピー&ペーストする人たちはこの文章を見つける可能性が低いのは認めるけど、私はこのページを共有したり、nohello.netやdontasktoask.comのようなマナーについての議論を促すために作ったんだ。AIのマナーについての共通理解があれば、こういう行動を止めるための社会的圧力になると思う。正直、他の誰かのAIは信頼できる限り気にしないよ。スロッピーパスタに関しての問題は、それが生のLLM出力に見えて、ユーザーがAIとどう関わったのか、何を確認したのかを透明にしていないことなんだ。「ChatGPTが言ってる」だけじゃ不十分で、確認の負担を引き継がないためには、何をプロンプトしたのか、AIとどうやり取りしたのか、何をどう確認したのかも理解する必要がある。(もう一つの問題は、チャットスレッドの途中で長文のレスポンスを投げ込むのがただただウザいってことだけど、これは人間が書いたテキストでも同じことだよね)
> 私たちは何年も笑って、すべてのこの技術と力が猫の動画を共有するためだけに使われていることを楽しんできた。まあ、猫の動画は人を幸せにするからね。
あなたのコメントは、せいぜい不誠実だと思う。 > 「インターネットはAI以前、高品質なコンテンツや議論の砦ではなかった。」何千ページものAI関連の議論を読んできたし、2022年からは何百本もの動画を見てきた。今ではおそらく千本近く見てるけど、昔の「高品質」なインターネットを求めていた人なんて一度もいなかったよ。みんなが求めていたのは、不完全な人間のインターネットだったんだ。今では、かつてはきれいにキュレーションされていたインターネットの一角が、スラッピーパスタに侵されているのを見ている。これはインターネットを一括りにするにはかなり広い表現だね。地球が戦争地帯や平和に暮らせる場所の砦ではないと言っているようなものだ。それは場所によって大きく異なるからね。
「同じことの繰り返し」って考え方は良くないと思う。インターネットには低品質なコンテンツがたくさんあったけど、低品質なコンテンツを作るのはそれなりにお金も時間もかかってたんだ。さらに、書き方だけで底辺のコンテンツを見分けることができた。今はLLMのおかげで、無限にスラップを生成するのがほぼ無料になって、人間が書いたものが埋もれちゃってる。しかも、以前は素早く見分けるために頼りにしていたスタイルのヒントを真似できるからね。
> 「この種の行動に怒っている人にはあまり同情しない。無視してるけど、それが無理なら、こういう書き方が周りの権力者に無視しても大丈夫だと納得させるのに役立つかも。」
ごめん、でも「私たちは長い間バイトコンテンツを作ってきた」というコメントをみんながどうしてスルーしてるの? 記事を読んだ? これは人と人とのやり取りについての話だよ。三つの例はこんな感じだった: * 誰かが進行中の話に割り込んで解決策を出す(でもそれは一般的で、AIslopに合わない) * 誰かが専門知識を求められて応じる(でもそれは一般的で、AIslopに合わない) * 誰かが問題提起をして助けを求める(でもそれは一般的で、AIslopに合わない) AI以前に存在していたのは真ん中の例だけで、記事はそれがどれだけ透明だったかを具体的に指摘してる。最初の例は不可能だよ、だってその人は役に立たない返事を書くことになるし、長々とした言葉を見つけるのは難しいから。無視するか、簡単に分解できるよね。最後の例は、大きなPDFからコピペしない限り不可能だし、それはチャットメッセージとは全然違うものになる。みんなが低い努力のバイトをSLACKに投稿するのが普通の職場って、どんな地獄なんだ? この返事の前提は全く意味不明だよ。
> 誰かがそれを他の誰かのAIの出力だと思った瞬間、反応が本能的になる…まるで何かに騙されているかのように。AI生成の文章を読むと、たとえそれが自分のプロンプトでも、LinkedInの投稿を読むときと同じ感覚になるんだ。シンプルな概念が不必要に長く、型にはまった形式に引き伸ばされて、読者を騙そうとしているみたい。みんなが自分の考えの断片をLLMに入れるのが好きなのは、その出力が自分と一致するから。嬉しいよね。でも他の人はそれが嫌なんだ。だって、散らばった箇条書きのポイントを吸収するために、長文を読まなきゃいけないから。箇条書きだけでいいんだよ。LLMエクスパンダーを通さないで。時間の無駄だよ。
みんなLLMを使って何かを作りたいと思ってるけど、LLMが生み出したものを消費したい人は全然いない。これが根本的な理由で、もし生産者が消費者に自分のLLM出力を消費させる方法を見つけない限り、全てが崩壊するだろうね。
これについて考えてたんだけど、AIが自律的に動いて事実と違うことを批判することになったらどうなるんだろう?SNSでは簡単だけど、企業だとちょっと難しいよね。「AIによって非常に真実でない可能性が高いとフラグ付けされました」みたいなのがあったら、すごく助かると思う。ネット上には、1つのLLMプロンプトで簡単に否定できる投稿やコメントがたくさんあるんだ。でも、これは本当に自信が高い時だけ使うべきだと思う。
なんでLLMが事実を知ってると思うの?
皮肉だよね、このサイトはLLM生成のウェブサイトの特徴が全部揃ってる。
クロードコードのフロントエンドデザインは、過去に見た感じだとセリフ体が好きみたいだね。AIの使用を開示してるのは良いことだね。
ああ、サイト自体がLLM生成だってことは100%認めるよ。ウェブデザイナーじゃないから、見た目が良いサイトを作るのにすごく助けが必要だったんだ。たとえそのデザイン言語が今やLLMのトロープになってるとしてもね。でも、エッセイやガイドラインは全部人間が書いたものだよ!
フォーチュン100の企業の中間管理職と話していると、「決定を下すために文書を送ってください」って言われることが多い。以前は慎重に書いても誰も読まなかったけど、今はAIのゴミみたいな3000ページを送って、誰も読まないことを確認してから作業を始める許可をもらうんだ。あまり良くないけど、昔の状況よりはマシだよ。昔は誰も何も読まず、36人のカンファレンスコールで代わりに読んでくれって頼まれたからね。今はそんなことはなくなった。
中間管理職の多くは、部下からの文書を読んで、明確さを改善するためのフィードバックをし、その後自分の意見やコメントを提供しているんだよね。この役割がAIが普及した世界で完全に無駄なのか、それとも結局みんながやってるのが、実際に作るんじゃなくて、レビューしてコメントすることなのか、ちょっと分からないな。
文字通り、人生であんなメールやDMを受け取ったことは一度もないよ。自分の社交圏をキュレーションするのが答えだね。
うちのオフィスからも一つもらったんだけど、ある時点でChatGPTを使って明らかにチェックされていないAsanaのチケットを書くことにしたみたい。
同僚をうまくまとめられたらいいのに…
最近、さらに悪夢のようなバージョンに遭遇したよ:AI生成のチケット。基本的に「臨床試験データ収集パイプラインの詳細な製品仕様を書く」という出力をそのままJIRAチケットにぶち込んで渡す感じ。うちの内部の製品デザインには合わないし、余計な機能がたくさん追加されてる。これをそのPMに指摘したら、基本的に「これらの不正確さはスプリントレビューで指摘すればいいし、エンジニアリングチームと「パートナーシップ」を結ぶべきだ」と返された。AIのマナーは、これからの数年でみんなが学ばなきゃいけないことだね。
オープンソースプロジェクトを維持している者として、これは約1年ほど前から問題になっていることを保証するよ。でも、職場でもこれを始めるのにもう少し時間がかかったと思う。
「スロッピーパスタ」ってめっちゃ役立つよね。何年も人やチームを管理してきたから、誰を切るべきかの明確なサインになってる。