ハクソク

世界を動かす技術を、日本語で。

OpenAIを退職しました

概要

  • Kalinowski007によるX(旧Twitter)投稿の内容要約
  • 投稿はテクノロジーや社会問題に関連
  • 主張や意見が示されている
  • 議論点や重要なポイントの抜粋
  • 日本語で簡潔に解説

Kalinowski007によるX投稿の要点

  • AI技術の急速な発展に対する懸念
  • 社会全体への影響やリスクの指摘
  • 自動化による雇用の変化や失業問題
  • 倫理的課題や責任の所在の不明確さ
  • 規制やガイドラインの必要性強調

AI技術の発展と社会への影響

  • AIの進化による効率化と生産性向上
  • 人間の役割の変化と新たなスキル要求
  • 一部職種の消失や再編
  • 経済格差の拡大リスク
  • 社会的合意の重要性

倫理・規制の必要性

  • AI開発者や企業の倫理的責任
  • 透明性と説明責任の確保
  • 政府や国際機関による規制の整備
  • 個人情報保護とプライバシー問題
  • 社会全体での議論とルール作りの必要性

もし具体的な投稿内容や追加情報が必要な場合、URL先の該当ツイート内容を直接ご提供いただければ、さらに詳細な翻訳・要約が可能です。

Hackerたちの意見

こういう「賢い人たち」が数年前からこれを予測できなかったのにはいつも驚かされる…正直、信じがたいよ。大手SV企業で働くのは、アメリカの帝国に直接仕えることだし、それがそもそもバレーを築いた理由なんだよね。
ハハ、そう思ったけど、サム・アルトマンがアンソロピックが「私たちがやらないのは、大規模監視と自律型殺人ドローンだけだ」って契約を拒否したときに、深刻な反発が来るのを予測できなかったのは信じられない。6時間後にはサムがそのことで大騒ぎしてたし。
お金を稼いでる間は、原則的な意思決定を未来に先延ばしにする方が楽だよね。
https://xcancel.com/kalinowski007/status/2030320074121478618 で返信を見てみて。
「原則」と「人」を分けるのが難しいな。原則を持ってるのは人じゃないの?
人を批判するんじゃなくて、原則を批判してる方が業界に留まりやすいよね。
「XじゃなくてYだ」っていうのは、発言に深みを持たせるためによく使われるChatGPTのトロープだけど、具体的な対比があんまりはっきりしないんだよね。このツイートは、ChatGPTが書いたか、ChatGPTのスタイルに影響を受けてると思う。
大手テックには「原則」なんてないし、このツイートとその理由には全く同意できない。OpenAIはこの社員がいた時にすでに軍事契約を結んでたし、去年そのことについてのオープンレターもなかった。前はMetaにいて、ChatGPTが流行った後にOpenAIに入ったんだから。「AGIは原則に基づくべきだ」なんて思ってたなら、単にお花畑なだけだし、RSUのためにそこにいたんじゃないかって思っちゃう。お金や名声、RSUのためにいたって正直に言えばいいのに、なんでそんなに難しいんだろう?
そんなに複雑じゃないよ。人は特定の考えや原則だけじゃなくて、もっと深い面や側面を持ってるからね(特に、どんな背景があってその決断をしたのか知らないときは)。サムもいろんな面で素晴らしい人だと思うから、その場合はアイデアを判断してるだけで、本人を判断してるわけじゃないよね。
OpenAIに残る人は、無実の人を殺すために使われる機械を作ることにサインしてるんだよ。そして、それが悪いアイデアだと思ってる人をコントロールするためのね。
中国がそういう殺人機械を作るんじゃないかって心配してる。準備ができてないかもしれないし。
それはいいけど、「原則」や道徳的優越性について誰かに説教するのはやめてほしいね。お金をもらってるかRSUを持ってるなら、完全に自分たちが不誠実になるから。それに、入社前に会社についてちゃんと調べてなかったってことを示してるし(Metaも同じくらい悪い)、グリフトに加担してるってことだよね(ChatGPTの後にOpenAIに入っただけ)。この社員は自分が言ってることを信じてないと思う。
それか、社会的信用スコアみたいな抑圧につながる監視社会に行くってことだね。この監視社会のデモを見てみて: https://claude.ai/public/artifacts/8f42e48f-1b35-450d-8dda-2...
殺すって考えには抵抗がある人が多いけど、技術が進化して武器システムのコストが上がるにつれて、無実の人を狙うために高価なシステムが使われる可能性はどんどん低くなってるよ。だって、それは資源の無駄遣いになっちゃうからね。一方で、実際にはあまり進んでない武器が大規模な犠牲者を出すことが多いんだ。ある国はアフタヌーンティーの間に成功した狩りをすることができるけど、別の国は何年もかけて都市を壊滅させても、反対派のリーダーに手も届かないことがある。これが先進的なシステムとそうでないシステムの違いだよ。ここにいる人たちが平和を愛しているなら、それはいいことだね。でも、もし常に理論で対立を避けられるなら、どうしてプロの警察という職業を作ったんだろう?もちろん、先進国が後進国をいじめる可能性もあるけど、逆に後進国は自分たちを見つめ直して、どうしてそんなに進んだ武器を自分たちで作れないのか考えるべきかもね。知らないけど、もしかしたら、こういう国々は自国民に従順なマスクを強制する代わりに、権力や機会を与えて、彼らが成長して貢献できるようにする時期かもしれないね。
> オープンAIにいる人たちは、住宅ローンを返済して家族を養って、安定しない時代に仕事を持ってる。道徳は今の状況では最後の方だよね。
AnthropicがPalintarと結んでる契約を考えると、Anthropicの社員についても同じことが言えるよね。追記:Googleもそう。イスラエルやアメリカ政府との関係があるMicrosoftも。正直、大手テック企業はほとんどそうだと思う。倫理的な視点から、これらの社員をどう見るべきだと思う?
OpenAIを辞める人は、古い戦闘から人を排除する技術を作る手助けを拒否することで、数えきれない若い兵士たちの死を招くことになる。今の現代戦争の状況は、たくさんの死と多くの巻き添えがある。使われる技術を改善することで、無実の人々や自分の兵士たちの巻き添えの死を減らす可能性が高い。世界を千回吹き飛ばせるだけの武器はもう十分にある。これらの致命的な武器をどう使うかを軍が賢くなるのは良いことだよ。技術者や知識人は、こういう広い社会的な計算が苦手だって有名だしね。彼らはみんな、インターネットやソーシャルメディアが当然グローバルな自由につながると思ってたけど、実際はそうじゃなかった。今、技術者たちは自分たちの新しいもの、AIのコーディングやスプレッドシートボットが、世界経済を壊したり、みんなを殺したり、共産主義のテクノユートピアをもたらすって思ってる。道徳的な大げさな主張や自己陶酔をやめて、深呼吸してみない? OpenAIの高給取りたちの中で、実際の戦闘を見たことがある人は誰もいないから、未発達の技術がどうなるかについて自信満々に主張するのはおかしいよ。このスレッドは、時間が経つにつれて悪化するだろうね。
そうだね、内部からの破壊もあるかも ¯\_(ツ)_/¯
この全能の非営利団体はどうなったんだろう?OAIが正しいことをしているのを保証するって言ってたけど、今はただ金を稼いで腐敗したシェルを運営してる気がする。
ボードは頑張ったよ。それがOAIに新しいボードができた理由だね。
立ち上がってくれて尊敬する。
「アメリカ人をスパイするべきじゃないし、人間の監視なしに人を殺すべきじゃないと思うけど、それをやる人にはリスペクトがある」。これ、どういうこと?
あなたのせいじゃなくて、私のせい。
これが変な道徳的立場だと感じざるを得ない。OPは他国の市民をスパイする技術を作ることには問題ないみたいだし、この件に関して市民権に道徳的関連性があるとは思えない。市民をスパイすることが根本的に間違っているなら、世界の別の地域に住んでいる人たちがそれをされるのはOKにはならない。市民をスパイすることが根本的にOKなら、会社が法的に登録されている地域に住む市民には道徳的例外がある理由は何?誰か教えてくれないかな。自動殺人の話はもっと理にかなってるけど、それでも死の技術を作ることにOKなら、人間が介在することにどれだけの違いがあるのか分からない。結局、死には変わりないんだから。
監視社会が根本的に間違ってるのには同意するけど、自国の市民に対してより大きな責任を感じるのは合理的だと思うし、政府が彼らをどう扱うかにも関心を持つのは当然だよね。
自国民を監視することは、特定の反民主的な乱用を可能にする(過去にもそういう使われ方をしてきたから)、だからその特定の反対意見は理解できるよ。ちょっと大げさに言うと、スパイ活動には賛成だけど、自己クーデターの道具は作りたくないって感じかな。キルボットのレッドラインはちょっと変だと思うけど、どこかで線を引く必要があるし、原則がないよりはあった方がいいと思うよ。(あと、AIの内部者たちが、なぜ人間がループにいることが重要なのかについて、私が知らないことを理解している可能性もあるね。)
いいね。彼女を誇りに思うよ。こういう原則を持った人がもっと必要だね。
「Why I left OpenAI」は今世代の「Why I left Google」って感じ?