ハクソク

世界を動かす技術を、日本語で。

LLMライティングのトロープ.md

概要

  • AIがよく使う典型的な文章パターン表現の一覧
  • 語彙選択文構造段落構成語調ごとに分類
  • AIらしさを避けるための具体的な例と回避推奨
  • 人間らしい自然な文章作成を目指すガイド
  • AIシステムプロンプトへの組み込み推奨

AIライティングで避けるべき典型的パターン一覧

語彙選択

  • "quietly"系副詞の多用
    例:「quietly orchestrating」「a quiet intelligence behind it」
    深刻さや重要性を過剰に演出する副詞の乱用

  • "delve"や類似語の濫用
    例:「Let's delve into the details」「We certainly need to leverage these robust frameworks」
    delve, certainly, utilize, leverage, robust, streamline, harness等の頻出単語

  • "tapestry"や"landscape"の過剰使用
    例:「The rich tapestry of human experience」「Navigating the complex landscape of modern AI」
    ornateな名詞でシンプルな事柄を装飾

  • "serves as"などの仰々しい言い換え
    例:「The building serves as a reminder」「Gallery 825 serves as LAAA's exhibition space」
    is/areの回避による不自然な表現

文構造

  • 否定的な並列構造の多用
    例:「It's not X -- it's Y」「not because X, but because Y」
    意外性や深みを演出しすぎるパターン

  • "Not X. Not Y. Just Z."のカウントダウン型
    例:「Not a bug. Not a feature. A fundamental design flaw.」

  • 自問自答の即答型
    例:「The result? Devastating.」「The worst part? Nobody saw it coming.」

  • アナフォラ(同じ文頭の連続)乱用
    例:「They assume that...」「They could expose...」

  • トリコロン(3つ並べる)乱用
    例:「Products impress people; platforms empower them. Products solve problems; platforms create worlds.」

  • "It's worth noting"等フィラー表現
    例:「It's worth noting that...」「Importantly, we must consider...」

  • 表面的な分析文の付加
    例:「contributing to the region's rich cultural heritage」「highlighting its importance」

  • "from X to Y"の誤用
    例:「From innovation to implementation to cultural transformation.」

  • 動名詞フラグメントの羅列
    例:「Fixing small bugs. Writing straightforward features. Implementing well-defined tickets.」

段落構成

  • 短文・断片的なパラグラフの多用
    例:「He published this. Openly. In a book. As a priest.」

  • リストを偽装した段落構成
    例:「The first wall is... The second wall is...」

語調・トーン

  • "Here's the kicker"型の過剰演出
    例:「Here's the thing about AI adoption.」「Here's where it gets interesting.」

  • "Think of it as..."の上から目線比喩
    例:「Think of it like a highway system for data.」

  • "Imagine a world where..."の未来誘導
    例:「Imagine a world where every tool you use...」

  • 偽の自己開示・親近感演出
    例:「And yes, I'm openly in love with the platform model」

  • "The truth is simple"型の断定
    例:「The reality is simpler and less flattering」「History is clear, the metrics are clear」

  • 過度な重要性・大袈裟な主張
    例:「This will fundamentally reshape how we think about everything.」

  • "Let's break this down"の教師口調
    例:「Let's break this down step by step.」「Let's unpack what this really means.」

  • 曖昧な権威付け・出典不明の主張
    例:「experts say」「several publications have cited」


これらのパターンをAIのプロンプトやシステム設定に追加することで、AI特有の不自然な文章を回避し、より人間らしい自然な表現を促進。

Hackerたちの意見

なんか変だけど、LLMはこの指示を無視するみたい。まるで事前学習や強化学習の重みが強すぎて、どんなシステムプロンプトでも上書きできないみたい。
これは美しいね。これを使ってスクリプトを生成するYouTuberの問題点は簡単に見つけられる。30秒も見れば、トロープに気づいて、すぐに削除したりブロックしたり、もうおすすめしないようにしてる。AIスクリプトを検出して、そういう動画をおすすめしないようにアルゴリズムを訓練したいな。正直、YouTubeからかなり離れちゃったし、「登録チャンネル」タブに行って、まだこの仕事を信じているクリエイターのコンテンツを探すことが多い。
確か、ネガティブな指示が効果的でないことはよく知られてるよね。おそらく「ピンクの象の逆説」に似たような理由か、単に言語モデルがクリシェを認識するのが生成された後になってしまうからだと思う。
これは、良い結果を期待するよりも、レビューとして使う方がいいと思う。LLMと戦ってる気がする時は、最初に作業をしてから監査するのが一番のアプローチだね(もう一つの方法は、いろんなテストを書くこと。LLM、特にOpus 4.6は、テストを誤魔化すのが大好きだし、あなたがどれだけ洞察力があるかを教えるのも大好きだから)。
人間が書いた実質的なリソース: https://en.wikipedia.org/wiki/Wikipedia:Signs_of_AI_writing
Wikipediaにも詳しいガイドがあるけど、自分が使ってるトロープを見つけるのは楽しくないよね(「XからYまで」っていう誤った範囲のやつ、私もめっちゃやっちゃう)。https://en.wikipedia.org/wiki/Wikipedia:Signs_of_AI_writing LLMが避けられないように思えるもう一つのポイントは、記事をタイトルとサブタイトルに分けてコロンで区切ること。明示的にやらないように言っても、結局やっちゃうんだよね。
でも、AIライティングの特徴ってそういうことなんだよね。そういうトロープは人間もやるけど、記事の中で一回か二回くらいだよ。毎段落に入れるのはちょっと多すぎる。
https://git.eeqj.de/sneak/prompts/src/branch/main/prompts/LL...
ClaudeやChatGPTのお気に入りの新しい言葉「genuine」とか、他にも「real」や「honest」をアドバイスの時に使うのって言及されてないの?これ、最近の変化みたいだね。> 正直に言うと、まずXに取り組むべきだと思う。これは本当に重要な問題で、ここに実際のバグが見つかった。名誉の言及: 「no」。これがプロンプトに従うのを安心させるのかな?こういうのは、雰囲気を重視したPRでよく見る。
同じように、「実際に効果があるX」
このトロープが完全に制御不能なサブレディットもあるよ。良くも悪くも、NBAのサブレディットをフォローしてるんだけど、コメント欄で「正直に言うと」っていう修飾語を使う人が、自然な会話から想像するよりもずっと多いんだよね。
確かにその「正直さ」については気づいてる。でも最近、AIが生成したとは思えないコメントや記事で「本当に」って副詞を使う人が増えてる気がする。もしかしたら私だけかもしれないけど、数年前に「効果」という言葉に似たような感覚を持ってたんだよね。GenAIの登場前だけど、パンデミックの後の話ね。やっぱり私だけかな。
> いや、これほんとによく見る。時には「リアクトフックなし」ってだけの時もあれば、「ここに、不要な長文の説明はなし」みたいに、文字通りで余計に不自然になることもある。もしかしたら、AGIを超えて、これが受動的攻撃性なのかも ;)
最近、claudeで「Fair enough, ...」ってのを見つけた。
私はLLMのライティングスタイルを研究してるから、これを盗むことにするよ。LLMスタイルの特徴リストはたくさん見たけど、「tapestry」って言葉が出てくるのは初めて見た。これ、GPT-4oの二番目に使われすぎてる言葉なんだよね(理由は分からないけど「camaraderie」の次に)。[1] 初期のスタイル比較では、現在分詞みたいな文法的特徴を使ったんだけど、GPT-4oはそれが好きすぎて、単独でもかなり正確な分類器になってた。だから、他の特徴をパターンマッチして定量化するのはそんなに難しくないはず。もしLLMに関わってる人が見てたら、質問があるんだけど、基本モデル(指示チューニングやRLHFなし、ただのテキスト補完)を試した時、こういうスタイルの異常はずっと少なかったんだ。だから、トレーニングデータが変だってわけじゃない。指示チューニングに何かがあるんだよね。人間の評価者にスタイルを評価させてるの?ルーブリックはあるの?なんで指示チューニングがこんなに目立つスタイルシフトを引き起こしてるの?[1] https://www.pnas.org/doi/10.1073/pnas.2422455122, プレプリントは https://arxiv.org/abs/2410.16107。今、もっと最近のモデルや他の文法的特徴に拡張する作業をしてる。
AIのライティングスタイルに関する私のリンクに興味があるかも: https://dbohdan.com/ai-writing-style。あなたのプレプリントとtropes.fyiを追加したよ。「水素ジャukeboxes: 'クリエイティブライティング' LLMの詰まった詩学」っていうnostalgebraistの作品があって(https://www.tumblr.com/nostalgebraist/778041178124926976/hyd...)、そこに「tapestry」の例が含まれてる。> なんで指示チューニングがこんなに目立つスタイルシフトを引き起こしてるの?Gwern Branwenがこれについてカバーしてるよ: https://gwern.net/doc/reinforcement-learning/preference-lear....
このRLHFがこういう異常を生み出してるんだ。ケニアとナイジェリアの事例を見てみて。面白いことに、パープレキシティが最適化の目的だから、事前学習されたモデルは全ての中で最も驚かない出力を反映するはずなんだ。
Tapestryっていう組織があるんだよね(Coach Incの親会社)。彼らがトロープを避けつつ、自分たちを検閲しない方法が気になる。
意味がトークンに結びついてることに関係してるのかな。c+amara+derie(公式のgpt-5トークナイザーを使って)。あと、彼らが絵文字にこだわるのも変なことだよね。英語で唯一のロゴグラムだから、バイトあたりの重みがすごくあると思ってた。
スタイルの変化が会話のトレーニング(つまり、チャットの状況でうまく応答するようにモデルを調整すること)に関係してるのかな。
これが気になるなら、ChatGPTのパーソナリティ設定を開いて、「効率的」な基本スタイルを選んで、熱意と温かさのスライダーをオフにしてみて。すごい違いが出るよ。このリストのほとんどは、ChatGPTがパーソナリティをシミュレートするために注入する感情的なフワフワしたものだから。
軽い歴史研究のためにGeminiを使ってみたんだけど、技術的なメタファーを使うのを止められなかった。貴族はその時代のCEOで、教皇は最も重要なインフルエンサー、家臣の反乱は就職面接みたいな感じで。メタファーがほとんどコメディみたいに役に立たなくて、Geminiはそれを使わないでって明示的に頼んでもずっと使い続けた。
それはGeminiが特にあなたのために答えをパーソナライズしようとしてるんだと思う。かなりそれに重きを置いてて、ちょっとイラッとくるくらい。設定で追加の指示を出せるけど、それにも気をつけないといけない。より良いコード例を得るために、自分の技術スタックやコードの好みを入れたんだけど、しばらくしてバイナリ実行形式について聞いたら、毎回「でもJVMとv8がそれを処理してくれるよ」って終わるようになった。これは「アイ, ロボット」的に面白いけど、イライラもする。だから、私の技術スタックを無視するように言ったんだ。コンピュータサイエンスの修士号を持ってるから、ちょっとした技術的な詳細は扱えるしね。そしたら、Geminiは皮肉を学んだみたいで、そのスレッドの次の回答は「でもあなたのマスターブレインにとっては、これは…」みたいな段落が始まるようになった。
生成されたテキストの微妙なサインは、読むのが本当に平坦なことだよね。技術文書が壮大な文章を必要とするわけじゃないけど、テキストがどれだけ具体性に欠けるかってこと。高校の説得力のあるエッセイの方がもっと詳細があることもあるし、それはしばしば成績のために書かれてるだけ。誰かが文章を書くのに助けが必要なのは理解できるけど、エージェントにその仕事をやらせるのは個人的な敗北に感じる。
このファイルの対象は、LLMよりもむしろ私たち読者向けな気がする。 > 「このファイルをAIアシスタントのシステムプロンプトやコンテキストに追加して、一般的なAIのライティングパターンを避ける手助けをしてください。」 だから、これを私のLLMの会話に入れると、AIアシスタントのシステムプロンプトに入れるよう指示しているようなもんだよね。 代わりにこう言うべきだと思う: 「避けるべき一般的なAIのトロープのリストです。」 すべてのトロープは、AIが何を間違っているのかを理解するために説明されている。 > 「微妙な重要性や控えめな力を伝えるために「静かに」や似たような副詞を使いすぎる。」 でも、実際にはアシスタントに「静かに」という言葉を使いすぎるように指示しているだけなんだよね。 「以下を避けてください」という部分で少しは緩和されるけど、結局このファイルは矛盾だらけだと思う。 「『静かに』を使いすぎないで、代わりに...を使ってください」と言うべきだよね。 だから、これは素晴らしいアイデアとリストだけど、説明が実行を混乱させている気がする。 私たちユーザー向けのプレゼンテーションと、実際のアシスタント、つまり意図された消費者を分けるべきだと思う。 クラウドに書き直してもらって、これをこのgistに入れたよ: https://gist.github.com/abuisman/05c766310cae4725914cd414639...
でも「それが重要な理由」を教えてほしいな。LLMはこれを追加するのが好きみたい。