AGIの目標とタイムラインの変化
46日前原文(mlumiste.com)
概要
- OpenAIのチャーターには自己犠牲条項が存在
- AGI開発競争が加速し、現状は競争状態
- Sam AltmanのAGI予測は年々前倒し
- GPT-5.4は競合に遅れを取っている現状
- 理想と現実のギャップ、そして目標の変化が浮き彫り
OpenAIチャーターと自己犠牲条項
- 2018年にOpenAIが公開したチャーターには、自己犠牲条項の明記
- 「価値観が一致し安全性を重視するプロジェクトがAGI開発で先行する場合、OpenAIは競争をやめ協力に転じる」と宣言
- 条件例として「今後2年以内に成功する可能性が50%を超える場合」を提示
- このチャーターは公式ポリシーとして現在も公開中(https://openai.com/charter/)
- AGI開発競争が激化する中、理想と現実の間に矛盾が生じている状況
Sam AltmanによるAGIタイムラインの変遷
- Sam AltmanはAGI到達時期を度々発言、近年は予測が前倒し傾向
- 2023年5月:「10年以内にAIが専門家レベルを超える」発言
- 2023年12月:「2030年ごろには世界が劇的に変化」発言
- 2024年11月:「5年以内にAGI到達」発言
- 2024年12月:「2025年にAGI」発言
- 2025年1月:「Trump政権中にAGI開発」発言
- 2025年9月:「2030年までに極めて有能なモデル誕生」発言
- 2025年10月:「2028年にAI研究者レベルの自動化」発言
- 2025年12月:「2025年にAGI達成」発言
- 2026年2月:「既にAGIを構築済み(精神的な意味で)」発言
- 2025年以降の中央値は2年以内でAGI到達と予測
- 最新のインタビューではAGI達成済みとの言及もあり、目標がASI(超知能)へと移行しつつある
AIモデルの現状と競争環境
- Arena.aiによる最新ランキングでは、GPT-5.4は競合他社モデルに遅れ
- AnthropicのClaudeやGoogleのGeminiが安全性・価値観の面で評価
- GPTシリーズは上位に食い込めず、OpenAIの優位性に陰り
- Arena.aiの指標がAGIの適切な評価基準かは議論の余地あり
- しかし、競争状態であること自体が自己犠牲条項の発動条件に合致
理想と現実のギャップ
- OpenAIチャーターの精神は「軍拡競争回避」
- 現状、OpenAIはAnthropicやGoogleと競争状態で条項発動条件を満たす
- 本来ならOpenAIは競争をやめ協力に転じるべき状況
- 実際には経済的インセンティブや現実的判断が理想を阻害
- 理想主義の無力さ、マーケティングと実行の乖離、AGI/ASIの定義や目標の変遷など、多くの考察ポイントを提示
AGIからASIへのシフト
- AGIの到達が既成事実化しつつあり、議論はASI(超知能)へと移行
- 目標が動くことで「既にAGIを達成した」という認識が広がる現象
- 技術進歩と社会的コンセンサスのギャップ拡大
考察ポイント
- 経済的動機が理想主義を凌駕する現実
- 企業の公式声明と実際の行動の食い違い
- AGI・ASIという目標の定義・ハードルの変化
- 「気づかぬうちにAGIを達成していた」という認識の浸透
- AI開発競争の今後と倫理的課題