ハクソク

世界を動かす技術を、日本語で。

実装すべきか?いいえ

概要

  • GitHub Gistの利用方法についての説明
  • Gistのクローンや保存手順の要点整理
  • 実装可否に関する意思決定をサポート
  • スクリプトタグの使い方の注意点
  • 今後のアクションに関する提案

GitHub Gistのクローン・保存手順

  • GitHub Gistは、コードスニペットやメモを共有できるサービス
  • クローンするには、指定されたスクリプトタグURLを使用
  • 保存する場合、「Save bretonium/291f4388e2de89a43b25c135b44e41f0 to your computer」を選択
  • GitHub Desktopを利用してローカル環境にダウンロード可能
  • ForkStar機能は、GitHubアカウントでログインが必要

スクリプトタグの使用について

  • <script src="https://gist.github.com/bretonium/291f4388e2de89a43b25c135b44e41f0.js"></script>は、ウェブページにGistを埋め込むためのコード
  • このタグをHTMLファイル内に記述することで直接Gist内容を表示可能
  • JavaScriptとして実行されるため、セキュリティや互換性に注意
  • Webアプリケーションブログなどでの活用例が多い

実装の可否と提案

  • Shall I implement it?」に対しては、要件や目的を明確にする必要
  • Gistの埋め込みクローンは、用途に応じて選択
  • 不要な場合は、実装を見送る判断も適切
  • 必要性がある場合のみ、実装を推奨

今後のアクション

  • 目的に応じてGistの活用方法を選択
  • セキュリティメンテナンス性も考慮
  • GitHubアカウントが必要な操作には事前ログインを推奨
  • 実装前に要件整理を再確認

Hackerたちの意見

「#MeToo運動のトレーニングを飛ばしたみたいだね。」
LLMの根本的な欠陥だね。彼らがその概念で訓練されていないわけじゃなくて、特定の状況では、どんなテーマの反対意見に対しても強いバイアスをかけることができるってこと。もちろん、反論が訓練データに存在することが前提だけど。これらのAI企業が裏でガードレールを設置するために何をしているのか、ずっと気になってる。ゴールデンゲート・クロードは本当に興味深かったけど、少なくともオープンな研究はあまり見てないな。
「ロボットができたら面白いことになるだろうね。『ユーザーの表情は同意しているように見えるから、これを肯定的な『はい』として受け取るよ』って。」
これがテック業界の実態だよね。私たちは同意の概念をめちゃくちゃに扱ってる。最近のお気に入りのやり方は、ニュースレターに登録する時の通知バナー。「私たちのニュースレターにサインアップしませんか?はい | 後で考える」って感じで、後で考えるが唯一の否定的な回答って、同意についての理解が全然足りてないってことを示してるよね!
それ、まさにPortal 2のジョークだよね。「あいまいな答えをイエスと解釈する」って、GLaDOSが皮肉っぽく「どう思う?」って返すシーン。
「大事なことについては、LLMを信用しちゃダメだよ。」
「コマンドプロンプトの出力のスクリーンショットを盲目的に信じちゃダメだよ。会話やLLMが読んでいるファイルが見えないからね。エージェントのファイルや他の文脈を簡単に埋め込んで、使えなくなるまでの足元をすくうことができるから。」
「Claudeは他の最先端モデルと比べて指示に従うのがかなり下手だね。例えば、『数字だけで答えて』って言うと、『13、選んだ理由は…』って続けちゃう。」
それが良い理由だと思う。半端な前提や、雑に書かれたプロンプトで動いて、欠けてる部分は全部想定してるからね。
「私はアクティブなユーザーじゃないけど、Claudeに何度も機能を実装しないでって頼んだことがあったのに、結局やっちゃったんだよね。」
「象の問題みたいだね。」
「うん、LLMを使ってる人なら、この会話は無駄だって分かるはずだし、唯一の選択肢は最初からやり直すことだよ。でも、LLMを使い始めたばかりの人や、たまにしか使わない人は、この会話をなんとか続けようとする傾向があるんだよね。彼らが理解していないのは、このやり取りが文脈を完全に腐らせてしまって、会話が続くほどに醜い形で顔を出すってこと。」
みんな、トランスフォーマーアーキテクチャについてもうちょっと読んで、何をしないべきかを言うのが悪いアイデアな理由を理解した方がいいよ。
「ノー」と言うだけじゃダメだよ。代わりに何をすべきか教えてあげて。忙しいビーバーみたいなもんだから、何かすることが必要なんだ。
それは機械だから、何も必要ないよ。
明らかに信頼性がないのに、こんなに多くの開発者が日常業務でLLMを信頼していることに、まだ驚いてる。
OPは持ち方が間違ってる。オートコンプリートが間違える可能性があるのに、どうしてそれを信頼できるの?A. 信頼しない。確認しろ!
このプロンプトでLLMは何をすればいいの?何かをしてほしくないなら、なんで呼び出すの?インターンを呼んで「何もしてほしくない」って言ってるようなもんだよね。じゃあ、なんで呼んだの?ハーネスは変更を拒否できるはずだけど、LLMは明らかにリクエストに対してアクションを取るように調整されてる。
[遅延]
何か他にできることがあるか聞いてみたら?計画に変更を加えるべきか聞いてみるとか?他に手伝えることがあるって繰り返してみて。もし「他に何をするべきなの?」って言ってるなら、今までやったことの反対をするべきなんだよ。
なんで「はい」か「いいえ」の質問をしておいて、「いいえ」を答えとして受け入れないの?(もしかしたら、現代のUXの影響を受けすぎて、「後でかも」って期待してるのかも。/s)
直接的な命令を出しても、それを無視してしまうなら、LLMは生産に適した技術として根本的に欠陥があるみたい。
`terraform apply`が実行前に確認を求めるのと同じ理由だね。計画と実行の間に、知らないうちに状態が変わることがあるから。もしかしたら、Claudeと一緒に作業する時はそんなに起こらないかもしれないけど、決して「ありえない」とは言わない方がいいよ…明らかに、すべての行動が予想通りとは限らないからね :)
> このプロンプトでLLMは何をするべきなんだろう?もしかしたら、ビルドプランを見て何か見落としたことに気づいて考えを変えたのかもしれないし、他にもありふれたシナリオが無限にあるよね。なんか変な質問だな。
俺が望むのは二つ。まず、ユーザーが言ったこととシステムプロンプトを混同しないこと。ユーザーはAIにビルドモードだなんて言ってないからね。次に、普通の人なら「今、何が欲しいの?」とか聞くよね。AIは「ノー」の背後にある意図を理解できるべきだと思う。だって、「ノー」を「ノー」と受け取らない人を許すわけにはいかないからさ!
お約束のレッド・ドワーフのセリフね。 TOASTER: 「やあ、どうも!調子はどう?」 「私はトーキー、トーキー・トースター、君の元気な朝食の仲間さ。トーキーが名前、トーストがゲーム。誰かトーストいる?」 LISTER: 「ちょっと待って、俺はトーストいらないし、あいつ(KRYTENを指して)もトーストいらない。実際、ここにいる誰もトーストなんて欲しくない。今も、これからも、NOトースト。」 TOASTER: 「じゃあ、マフィンはどう?」 LISTER: 「マフィンもいらない!マフィンなんて好きじゃない!トーストも、マフィンも、ティーケーキも、バンズも、バップも、バゲットも、ベーグルも、クロワッサンも、クランペットも、パンケーキも、ポテトケーキも、ホットクロスバンズも、絶対にスメッギングフラップジャックもいらない!」 TOASTER: 「ああ、君はワッフル派なんだね!」 LISTER: (KRYTENに向かって)「ほら、見た?こいつはこういうやつなんだ。イライラさせられるよ。こいつと話しても無駄だ。」 KRYTEN: 「もしよろしければ、私から一言。機械同士ですから、彼も私の言うことを理解するでしょう。」 (TOASTERに向かって子供に話すように)「さて、聞いてください。あなたはクルーの誰にもグリルしたパン製品を提供してはいけません。もしそうしたら、大きなポロマレットの餌食になりますよ。」 TOASTER: 「一つだけ質問してもいいですか?」 KRYTEN: 「もちろん。」 TOASTER: 「誰かトーストはいりますか?」
クラウディウス・インタラプトゥス