ハクソク

世界を動かす技術を、日本語で。

Hackerたちの意見

これらのことが、LLMが登場する前からかなり有名なクリシェだったっていうのは、関係があると思う。要するに、賢くて洗練された感じを出したいけど、特に言いたいことがない人たちがやりがちなことだったんだよね。実際、これがLLMがこういう風に聞こえる理由だと思う。
確かにそうだけど、「クリシェを減らす」っていうのは賛成だな :)
AIはすごくオリジナルだから、そこそこ使われているフレーズや構文からクリシェを作り出すことができないんだよね。
確かに、
こういうのは、LLMが出る前からすでに知られているクリシェだったんだよね。洗練された感じを出したいけど、言葉がうまくない人たちが使ってた。だからLLMもそんな感じになるんだよ。
元のGrammarlyみたいに、ビジネスライティングには役立つと思う。こういうツールは要点を押さえるのに役立つから。多くの学生は学校のエッセイで華やかな言葉を使うことで評価されるけど、メールを書いたりデザインドキュメントを作成する時は、読みやすさと明確さを最優先にした方がいい。でも、一般的な使い方としては、これはちょっと間違ってると思う。LLMの出力の問題は、エムダッシュや「重要な」みたいな言葉を使っていることじゃない。LinkedInや個人ブログのほとんどのLLM記事は、一文のプロンプトを受け取って、無駄な言葉で飾り立てて、みんなの時間を無駄にしているんだ。「シャワー中に思いついて、チャットボットにそれについて5ページのテキストを書かせた」なんて。もっと綺麗な言葉はいらない、もっと少なくしてほしい。逆に、人間で本当に重要なことを言いたいなら、好きなだけ「掘り下げて」もいいけどね。
> 「シャワー中に思いついて、チャットボットにそれについて5ページのテキストを書かせた。」もっと綺麗な言葉はいらない、もっと少なくしてほしい? 作者はテキストの長さで判断すべきだよ。数十年の洞察が200ページにぎゅっと凝縮されてる?素晴らしい!何時間も考えた結果が200ページ?それはすごく悪い。同じ長さのテキストでも、印象が全然違う。メールやツイート、動画、話すことにも同じことが言える。少なく言え!でも、あまりにも少なくはしないでね。
ちょっと脱線するけど、ACTの勉強をしていた時に、練習本の中に印象に残ったことがあったんだ。言い換えると、「良い文章は明確で理解しやすい。コミュニケーションが大事だから、ちゃんと伝えることを意識して」みたいなことだった。論理的には分かっていたけど、完全には気づいていなかったことだと思う。いつも文章を華やかにしようとして、最低限の単語数を満たすために無駄に膨らませていたけど、「理解しやすさ」は後回しになっていた。その一文が、私のACTの準備本に載っていたおかげで、かなり良いライターになれたと思う。
そうそう、この漫画が問題をうまくまとめてるよね: https://marketoonist.com/2023/03/ai-written-ai-read.html
シニアエンジニアとして、技術設計やPRDのレビューや承認にかなりの時間を使ってるんだけど、年々基本的なコピー編集の量が増えてきた気がする。時々、20%以上のテキストを削除してる気がするよ。それもLLMが出る前の話だけどね。
> 多くの学生は学校のエッセイで華やかな言葉を使うことで評価される ちょっと細かいこと言うけど、大学では逆の経験をしたよ。教授に華やかな言葉を使ったことで点数を引かれたんだ。正直、彼女には感謝してるよ。私のだらけた書き方、ほんとにひどいから(同じ文で「正直」を二回使ったの見て、笑っちゃう)。あなたの投稿を否定するつもりはないけど、教授に恵まれたなって思った。LLMが文章(やコードも)を生成する時、出力が多すぎるのには同意するよ!
> 問題はXではない。Yだ。あなたの書き方、考え方は別として、すでにLLMの文体に影響されてるよ。
華やかな言葉は大事だけど、BLUF(Bottom Line Upfront)みたいなものも重要だよね。大学が「華やかな」言葉を書く能力を教え続けるのは大事だけど、学校もBLUFみたいなことを教えるのが重要だと思う。あの二つの文を比べてみて。私は、最初の文とリンクだけのコメントを書くのは全然いいけど、Hackernewsみたいなサイトでは受け入れられないのが分かってる。ここでは冗長な表現が大好きだからね。だから、状況によってはちょっと飾り付けが必要なんだよ。エメリルの「バン!」みたいな感じでね。要は、相手を知ることが大事なんだ。メディアはメッセージだから。そういうこと。LinkedInの投稿は無駄な言葉がいっぱいだけど、それがLinkedInの目的だからね。要は、他の人に無駄な言葉をつなげる能力をアピールするためなんだ。ビジネスの典型的なやつだよ。「スーツを着ていても、腰布を巻いていても、人は無知な小さな棘でお互いを傷つけ合っている。彼らは、生存に必要だった暴力的な傾向を超えることができないようだ。」こういうことを掘り下げることもできるけど、結局は相手を知ることとメディアはメッセージだってことに戻るんだよね。それに、自分を繰り返さないこと。絶対に繰り返しちゃダメ。
この理論は前に聞いたことがある:数年後、企業のコミュニケーションはこうなるだろう。箇条書きをいくつか書いて、それをAIに渡して美しいメールを作成させる。受け取った人はそのメールを自分のAIに入れて、読むための箇条書きを生成するんだ。
LLMが生成したテキストから美的要素を取り除いても、意見や経験を表現する人がいないっていう事実は解決しないよ。それは、無防備な読者がそれを理解するのにもっと労力を要するだけになる。
でも、実際に人間からのリアルな情報が含まれているコンテンツも結構あるよね。AIを使って書くのを手伝ってもらったり、最初のドラフトをAIに作らせてから修正することもあるし。それでも読みたいものはあるけど、AIの修辞スタイルはもう面倒くさくて、読むのが本当にイライラする。だから、このツールはそういう場合に役立つかも。(人々が実際に使うと仮定してね。)
すごい!エイブラハム・リンカーンがAIにゲティスバーグ演説を書かせたって知ってた?305語の中から17のパターンが見つかったんだ。なんであんなのに広告収入を与えたのか、全然わからないよ。
ハハ!アシモフでも同じことやったよ。これらの「検出器」は冗談みたいなもんだね。
それやってみたけど、ほとんどが誤検出みたい。トリプル構文はカンマだけで判断してるみたいで、当時の文章ではもっと一般的だったみたい。エムダッシュも報告されるけど、これは明らかに関係ないし。誰もこれらの構造を完全に排除する必要があるなんて言ってないよ。305語中17個の一致は、最初に示された例に比べてかなり少ない。
自分で書いたブログを貼り付けて、何百ものパターンを指摘したんだ。記事が15,000語だから、ある程度は仕方ないけど、明らかに悪いものを指摘する以上の役に立つことはないと思う。提案を見ても、あんまり良くないしね。人は、一般的なアドバイスを信じるより、自分の書き方を磨く方がいいと思うよ。
同じことをやってみたけど、結果はかなり平凡だった。せいぜい、重要度の低い単語を省いてもっと簡潔にできる場所を指摘してくれたけど、どんな編集でもそれはできるし(僕はライターとして冗長になりがちだと思う。欠点だけど、これが僕の自然な欠点なんだ)。それを超えると、LLM生成の文章で使いすぎだと思われる文の構造に対するパターンマッチングに過ぎなかった。たとえそれが本当でも、特定の文を文脈で書き直す理由にはならないよね。
アシモフの「最後の質問」の一部をコピペしたんだけど、フロントページにあったからさ。583語の中で14個のパターン(赤が2つ、黄が1つ、緑と青がたくさん)を検出したよ。アシモフ先生、また学校に戻らなきゃね… 更新:サミュエル・クレメンズの800語では13個のパターン。どうやら彼はエムダッシュを使いすぎてるみたいだけど、「フィラー副詞」や「トリプル構文」、「アナフォラの乱用」も好きみたい。やばいな!ヘミングウェイ先生は1600語で43個のパターン。フィラー副詞が16個、トリプル構文が5個、スタッカートのバーストが5個、質問してから答えるのが14個。すごいね…
三の法則は実際に良い書き方のアドバイスで、LLM以前の時代では一般的だった。心理学の研究によると、3は人間の注意を引くのに良い数字だから、「イギリス人、アイルランド人、スコットランド人がバーに入る」っていうジョークがあるんだよね。僕の代数の教授も、よく書かれた定義には3つの条件が必要だって言ってた。例えば、群は(1)結合的で、(2)中立的で、(3)逆元がある集合だって。彼は完全に冗談ではなかったと思う。(複数の主人公がいる物語では、読者にとって一番効果的な選択肢は3か5が多い。人間って変わってるよね。)LLMがこの法則を使うのは、訓練データに多く含まれているからだと思う。
群は代数的構造で、多くの代数的構造はある数の公理に従う演算を持つ集合として定義される。群はちょうど3つの公理を持つ構造だけど、例えばモノイドは2つの公理を持つ演算を持つ集合で、逆元の公理がない群なんだ。だから、モノイドが群よりも意味のある点で劣るとは思わない。
このツールを使うときに、コストを避けるためにAnthropicに呼び出す代わりに、ローカルモデル(例えば、Ollamaのモデル)を使うことはできるのかな?それとも、Anthropicに特有の何かがあって、それが必要なの?
一番イライラするのは、「delve」みたいな言葉を使うことじゃなくて、見出しのアルゴリズム的な構造なんだよね。今や、どの記事もこういう構成になってる:- 問題 - 解決策 - 証明 - 重要な理由
新しい世代が、LLM生成のテキストでコミュニケーションを学ぶ時代が来るから、そういう「キャッチ」する方法はその頃には無効になってると思うよ。