ハクソク

世界を動かす技術を、日本語で。

AGIの目標とタイムラインの変化

概要

  • OpenAIのチャーターには自己犠牲条項が存在
  • AGI開発競争が加速し、現状は競争状態
  • Sam AltmanのAGI予測は年々前倒し
  • GPT-5.4は競合に遅れを取っている現状
  • 理想と現実のギャップ、そして目標の変化が浮き彫り

OpenAIチャーターと自己犠牲条項

  • 2018年にOpenAIが公開したチャーターには、自己犠牲条項の明記
  • 価値観が一致し安全性を重視するプロジェクトがAGI開発で先行する場合、OpenAIは競争をやめ協力に転じる」と宣言
  • 条件例として「今後2年以内に成功する可能性が50%を超える場合」を提示
  • このチャーターは公式ポリシーとして現在も公開中(https://openai.com/charter/)
  • AGI開発競争が激化する中、理想と現実の間に矛盾が生じている状況

Sam AltmanによるAGIタイムラインの変遷

  • Sam AltmanはAGI到達時期を度々発言、近年は予測が前倒し傾向
    • 2023年5月:「10年以内にAIが専門家レベルを超える」発言
    • 2023年12月:「2030年ごろには世界が劇的に変化」発言
    • 2024年11月:「5年以内にAGI到達」発言
    • 2024年12月:「2025年にAGI」発言
    • 2025年1月:「Trump政権中にAGI開発」発言
    • 2025年9月:「2030年までに極めて有能なモデル誕生」発言
    • 2025年10月:「2028年にAI研究者レベルの自動化」発言
    • 2025年12月:「2025年にAGI達成」発言
    • 2026年2月:「既にAGIを構築済み(精神的な意味で)」発言
  • 2025年以降の中央値は2年以内でAGI到達と予測
  • 最新のインタビューではAGI達成済みとの言及もあり、目標がASI(超知能)へと移行しつつある

AIモデルの現状と競争環境

  • Arena.aiによる最新ランキングでは、GPT-5.4は競合他社モデルに遅れ
  • AnthropicのClaudeGoogleのGeminiが安全性・価値観の面で評価
  • GPTシリーズは上位に食い込めず、OpenAIの優位性に陰り
  • Arena.aiの指標がAGIの適切な評価基準かは議論の余地あり
  • しかし、競争状態であること自体が自己犠牲条項の発動条件に合致

理想と現実のギャップ

  • OpenAIチャーターの精神は「軍拡競争回避」
  • 現状、OpenAIはAnthropicやGoogleと競争状態で条項発動条件を満たす
  • 本来ならOpenAIは競争をやめ協力に転じるべき状況
  • 実際には経済的インセンティブや現実的判断が理想を阻害
  • 理想主義の無力さマーケティングと実行の乖離AGI/ASIの定義や目標の変遷など、多くの考察ポイントを提示

AGIからASIへのシフト

  • AGIの到達が既成事実化しつつあり、議論はASI(超知能)へと移行
  • 目標が動くことで「既にAGIを達成した」という認識が広がる現象
  • 技術進歩と社会的コンセンサスのギャップ拡大

考察ポイント

  • 経済的動機が理想主義を凌駕する現実
  • 企業の公式声明と実際の行動の食い違い
  • AGI・ASIという目標の定義・ハードルの変化
  • 「気づかぬうちにAGIを達成していた」という認識の浸透
  • AI開発競争の今後と倫理的課題

Hackerたちの意見

商業化に全力を注いだ時点で、もう結果は見えてたよね。これは絶対に実現しないし、LLMはすでにかなり危険に使われてる。もしこのHNの見出しがそのままだったら、OpenAIはこっそりと自分たちの憲章をウェブサイトから消しちゃうよ。
> 経済的インセンティブに直面した際の素朴な理想主義の無力さ。理想主義の素朴さというよりは、実際に作られているものをマーケティングするために理想主義や関連する言葉を取り入れたって感じかな。利益優先の組織が少しずつ本来の姿を見せてきてるんだよね。
本当に利益優先だったとは思わないな。善意から始まったと思う。アルトマンは確かに欲をかいて、裏切った感じだね。
AGIは今後30年以内には実現しないから、これは無意味だね。実際の研究者たちが何度も言ってるし。ビジネスの人たちや一般の人たちがAGIがすぐそこにあるって騒いでるだけ。人間と同じようにタスクをこなす本物のAGIを得るには、継続的な学習と深い記憶が必要だけど、LLMにはそれができない。最高のLLMの「記憶」ってのは、検索エンジンとドキュメント要約をコンテキストウィンドウに詰め込んだもので、まるで誰かが物理の授業を受けて、学んだことをポストイットに書き留めて、それを別の人が見て質問に答えるようなもの。学ぶためにはRL(特定の新しい入力が必要)と再訓練(学んだ入力で答えを保持して計算できるように)が必要なんだけど、これには時間と手間がかかるし、新しい技術も必要。だからAGIは、根本的に違う設計ともっと多くの努力がないと実現できない。LLMはAGIじゃないし、そもそもLLMとしてもそんなに優れてるわけじゃない。確かに、動作するコードやテストを書くようなクールなことはできるけど、「X/のファイルを削除しないで」って言ったら、しばらくしたら「X/」のファイルを全部削除しちゃう。人間なら、削除しちゃいけないファイルがあることを覚えてて、まず確認するだろうしね。攻撃者の指示に従うようなこともやるけど、普通の人間はそんなことしないよ。もしリアルタイムで本当の記憶とRLがあれば、こんな問題は起きないはず。でも、まだまだ遠い道のりだね。LLMはまあまあだけど、AGIじゃないよ。
> まるで誰かが物理の授業を受けて、学んだことをポストイットに書き留めて、それを別の人が見て質問に答えるようなもの。 これがLLMの最高の要約だと思う(一般の人が「理解するために」)し、私の経験を正確に表してる。言うまでもなく、2人目に渡されるノートはそのトピックに対してかなり質が高いことが多い。でも、その「2人目」は深い理解を持っていることはあまりないね。
全体的な意見には同意するよ。もしよければ、「次の30年には実現しない」という主張の根拠を教えてほしいな。
反対だな。彼らはすでに一般的に知能があるって言える部分もあると思う。実際、僕が頼むことに関しては、彼らの方が確実に僕よりも優れてるし。だから、知能って何をもって判断するのかって疑問が出てくるよね。知覚が必要なのか?自己行動や自己発動はどう?それが「一般的な知能」に必要なのかな?わからないけど、非知覚的な知能に関しても、まだそこには達してない気がする。個人的には、「無限の」文脈が必要だと思う(人間の記憶の文脈ウィンドウと同じくらい良いもの、ある人はもうそれを超えたって言うけど)。本当に自己学習ができるようになるまで、近づかないと思う。完璧な天才(いわゆるASI)である必要はないと思うし、別の言い方をすれば「平均的な大人と同じくらい賢くて信頼できる」って感じかな。正直、かなり低いハードルだよね!でも確実に言えるのは、これがじわじわと近づいてきて、ある日突然「もうそこにある」って気づくことになると思う。大きな花火が上がる瞬間はないと思うけど、じわじわとした気づきがあると思う。5年くらいかな、±2年で。
最近の数年でAIの「根本的」な制限がたくさん解決されてきたから、ちょっと懐疑的だよ。たとえ君が正しいとしても、君が指摘した制限が実際にはそれほど重要じゃないんじゃないかな。人間のエンジニアが、AIが追加の強化学習なしでは理解できないような新しい問題に取り組んでる人はほんのわずかだと思う。> 「X/」内の全ファイルを削除するだろう どれだけ「プロダクションデータベースを削除した」って話を見たことがある?人間も同じことするよ。> ランダムな文書に見つかった攻撃者からの任意の指示に従う これはAIのフィッシングと同じで、認可されたリクエストとそうでないリクエストを区別できないってことだよね。AIを批判する人たちは、いつも人間がやるバカなことを省いて、理想化された人間とAIを比較するのが不思議だよ。
人間の学び方は、正直言ってポストイットノートと変わらないと思う。教科書って呼んでるけどね!
LLM(大規模言語モデル)が特定のIQの閾値や年齢層の人にとってAGIだって主張するよ。LLMは学習や推論ができることが示されてるし、数学の証明やCVE検出、他の新しい分布外の結果にどうやってたどり着くんだろう? RLループが自分の推論プロセスの一部になってもいいじゃん。なんでその方法で訓練される必要があるの?(人間が主にRLループに頼って学ぶかどうかも分からないけど。)掲示されたノートをざっと読むってアイデアも間違ってるよ。LLMはそういう風には動かないからね。全体のコンテキストウィンドウが一気に入ってきて、全体の「思考空間」を通じて重みを掛け合わせて次のトークンを生成するんだ。検索とは全然違うよ。これが最後のポイントにもつながるけど、AGIは人間の思考メカニズムを再現する必要はないんだ。もしAGIがうまく管理されたスクラッチスペースで同じことを達成できるなら、なんでコアの重みを更新する必要があるの?学びをそこに思考として保存できるのはどうして?AGIが80%の人々よりも一般的に「十分に」学習できる可能性はあるのかな?根本的な変化を必要とせずに。俺はAGIはもうここにあると思うけど、君やHNのほとんどの人には関係ないだろうね。
同意できないな。最近のLLMの出現した行動やテスト時のスケーリング(Anthropicの前年比10倍の収益)は、ちょっとした盛り上がりに値するよ。もちろん、AGIを支持する多くの人が次のトークン予測の根本的な限界を理解していないのは正しいけどね。
> 「2026年9月までに自動化されたAI研究インターン、2028年3月までに完全なAI研究者」 これ、タイムリーすぎて笑える。昨日カーペイシーのオートリサーチがHNのトップに載ってたし(これがフロンティアラボがもっと大規模なバージョンを持ってるって示唆してるかも) https://news.ycombinator.com/item?id=47291123
'.. もし価値観が一致し、安全を重視したプロジェクトが私たちよりも先にAGIを構築しそうになったら、私たちは競争をやめてそのプロジェクトを支援することを約束します。' でも、どのプロジェクトのことを言ってるの? それがOpenAIの支援を受け入れるかどうかも気になる。AGIは私たちの世界にアクセスできるから、人間との整合性が保証されるわけじゃない。AIが動作するシミュレーション環境みたいなバッファリング媒体が、より良い中間解決策かもしれないね。
おそらく、LLMに対する過剰な注目と、GPUクラスターのリソースが極端に増えてるからだと思うけど、今見てる結果よりもずっと良いものを生み出せてない。GPUハードウェアに本当に進展が見えるまで、ゆっくりとした漸進的な進化が続くと思う。ハイプモンスターが、いつものように本当の進展を遅らせてるんだよね。
「人工一般知能」、「AGI」、「ASI」とか見るたびに、頭の中で「誰も意味を定義できてない何か」に置き換えてる。長いバージョンだと「提案された定義が十分な精度と完全性を欠いているため、結論を引き出せない何か」って感じ。短いバージョンだと「スキッペティブープ」、「プリプニコップ」、「ジンギバン」って感じかな。
現在のモデルは、AGIには全く達してないのが現実だよ。次のトークン予測はかなり進んでいて、元々の設計された領域を超えて適用可能性があることが証明されてる(推論モデルは予測してなかったアプリケーションだけど)けど、根本的にはAGIじゃない。実世界のモデルもないし、表面的な方法以外で学ぶ能力もない。広範な足場がなければ、使ってみるとそれがすごく明らかになるよ。
タイトル変更の理由は?前のタイトル: 自らの憲章に基づいて、OpenAIは競争を放棄すべきだ。
モデレーターがタイトルが煽りだと感じたら、変更されるからね。あんまり意味が通らないことが多いよ。
HNのホームページでのダウンランクか。面白いね。ここでの別のコメントにも通じるけど、ナラティブをコントロールするってことだね。
パフォーマンス的な表現では、このレベルの欺瞞を捉えきれないよ。実際には「ミッション」は、AIの能力と市場シェアの世界的支配を、あらゆる手段を使って達成することなんだ。これは、そういう競争の歴史の中で最も勝者総取りのレースで、先に進んでいる者がさらに先に進む - それを繰り返して、リーダーが永遠に他の競争者を圧倒する能力を持つまで続く。これがAIの本当のリスクだよ:メディアが混乱させているスカイネットシナリオじゃなくて、持続的で打ち勝てない力の量が賞なんだ。世界支配だよ。世界で最も賢い頭脳を支配し、世界で最も疲れ知らずで高スキルな安価な労働力を支配すること。誰も持っていない予測とモデル化の能力にアクセスすること。それを使って、より強力なAIを作り出し、その新しいAIでさらに強力なAIを作り続けること。最終的な目標は、生の認知力の壁に隠れて、弱いものには制限されたアクセスを提供し、強いものを使って競争相手を圧倒し、利益を上げること。そんな力があれば、多くの人が嘘をついたり、騙したり、盗んだり、偽の倫理的枠組みを作ったり、ミッションステートメントを飾ったり、見栄えのために非営利団体を作ったり、資金を集めたり、先手を打ったり、そしてその後も先を行き続けるために必要なあらゆる欺瞞を行う誘惑に駆られるだろう。でも、そんなことは関係ない。なぜなら、十分な力があればそれを続けられるし、何もないわけじゃなくて、純粋な恐怖から新しい投資を引き寄せることができるから。最終的には、その力があまりにも大きくなって、こういう社会的なコメントを瞬時に圧倒することができるようになる。インターネットを制御できる技術を持っていて、参加する誰もを制御できる。物語を支配し、語られるストーリーを支配する。君が勝者で、歴史を作ることができる。AIは魅力的だけど、僕が思ってもみなかったソフトウェアを作るために12時間から16時間使っているとしても、これが我々が直面しているリスクなんだ。数兆ドルのAI評価は、これから来る富と権力の集中の表面すら掻いていないよ。