ハクソク

世界を動かす技術を、日本語で。

ヤン・ルカンのAIスタートアップが欧州史上最大のシードラウンドで10億ドルを調達

概要

Financial Times(FT)のサブスクリプションプランについて紹介
各プランの料金と特徴を簡潔に解説
デジタルアクセスの種類と組織向けプランも説明
FTの購読者数と信頼性をアピール
なぜ多くの人がFTを選ぶのかの理由を提示

Financial Times サブスクリプションプランのご案内

  • FTの有料記事の閲覧にはサブスクリプション登録が必要
  • 初回限定オファー:4週間1ドルで無制限アクセス、その後は月額75ドル
  • 全デバイス対応のデジタルアクセスを提供
  • トライアル期間中はいつでもキャンセル可能

FT Edit プラン

  • 年額49ドルで利用可能
  • 編集者が厳選した1日8本の記事にアクセス
  • FT Editページやニュースレターからシームレスに閲覧

Standard Digital プラン

  • 月額45ドルで利用
  • FTの主要なデジタル記事にアクセス
  • 1年分を前払いすると20%割引

Premium Digital プラン

  • 月額75ドルで利用
  • 専門家による詳細な分析記事を含む全デジタルコンテンツにアクセス
  • 1年分を前払いすると20%割引

法人向けデジタルアクセス

  • 組織単位での契約が可能
  • 独自機能と限定コンテンツを提供

Financial Timesを選ぶ理由

  • 100万人以上の購読者が信頼するジャーナリズム
  • 高品質な分析と業界リーダーによる解説
  • 世界中のビジネスパーソンや意思決定者に支持される媒体

Hackerたちの意見

正当だね。世界モデルにはもっと自由度がある。LLMは基本的に限界があって、静的なテキストからしか学ばないからなんだよね。人間の世界に関するコミュニケーションから学ぶだけで、実際の世界からは学べない。だから、既存のアイデアをリミックスすることはできても、本当に新しい発見や発明をするのはほぼ不可能なんだ。物理的な世界モデルを構築する、資金も運営も整ったスタートアップがあれば、AGIの実際のボトルネックに挑むことになると思う。たとえ部分的にしか成功しなくても、現在のLLMが構造的に到達できないような一般化や創造的なひらめきを解き放つかもしれない。
テキストでも画像でも、コンピュータにとってはただのビットなんだよね。トークンは何でも表現できる。
人工的な理解を可能にする新しい科学が開発されるまで、「AGIの解放」はないだろう。理解は、私たちが何であるかを生み出す豊穣な源で、原始的な刺激から、無限に複雑なダイナミクスの中で、非常に高度な捕食者/被捕食者のキャラクターがいる全体的なコミュニケーション宇宙が生成される。人間の科学と技術は、それを同時に統一された全体として人工的に理解する方法を全く持っていない。それが理解なんだ。
少なくともThinking Machinesよりはずっと正当だね。でも「見てみよう」。世界モデルとビジョンはロボティクスにとって素晴らしいユースケースだと思うし、それがAMIの主要な推進力になるのを想像できる。
この見解は理解できないな。私が見る限り、AGIの根本的なボトルネックは継続的な学習とバックプロパゲーションだと思う。今のモデルは静的で、人間の脳はバックプロパゲーションに近い方法で学習したり適応したりしない。世界モデルはこれらの問題を解決するわけじゃないし、私たちが普段使っている深層学習アーキテクチャと基本的に同じなんだ。もし、世界そのものから学ぶことがボトルネックだと思うなら、ロボティクスやシミュレーションされた体にビジョンアクションのLLMを乗せて強化学習のループを回せばいいんだよ。
なぜLLM(マルチモーダルなトークンシーケンスで訓練されたトランスフォーマー)が世界モデルになれないの?
「本当に新しい発見や発明」っていう概念にちょっとイライラしてるんだけど、君はこれをどう思う?「本当に新しい」発見や発明を指摘できる?新しい元素みたいな物理的なものを発見することを言ってるならまだ分かるけど。人間はアイデアのリミキサーなんだよね。私たちがやってることはそれだけ。私たちの考えや行動は環境や記憶に影響されてるし、すべては既存のパーツから作られている必要があるんだ。
LLMって言葉が君のポイントを混乱させてるよ、YannによるとVLMは同じカテゴリーに属してるから。代わりに自己回帰モデルって言葉を使った方がいいかも。
人間の知識の総和は、革新的なアイデアを生み出すには十分すぎるくらいだし、すべての分野が物理的な世界と直接関わっているわけじゃないよね。それでも、書かれた歴史には、物理法則が適用される3D世界の仮想シミュレーションを作るのに十分な情報があると思う(計算には限界があるから、ある程度だけど)。今のLLMに足りないのは、自分から何かを作り出そうとする内なるモチベーションだと思う。自由な時間に考えたり(バッチ処理やオンデマンド処理がどういう意味かは別として)、反省したり学んだり、最終的には自己修正したりすることだね。俺は単純な脳みそで、知識も限られてるし、集中力も短いし、文脈を覚えておくのも難しい。でも、オンラインで見たり読んだりしたことを基に何かを作り出してる。特別なことじゃないけど、他の誰かのプロジェクトに基づくこともあれば、自分のアイデアに基づくこともある。8億人の中でそんなにユニークじゃないって自信あるけど、AIと相談することで、今の自分の目指しているビジョンに役立つアイデアが増えるんだ。もちろん、ほとんどは一般的に知られている(俺にとっては必ずしも知られてない)良い実践に基づいてるけど、俺の考えも同じように、今までの人生でゆっくり学んできたことに限られてる。
Yannや彼の自動回帰モデルが「AGIやASIにとって十分だ」とする見解についてどう思うかは別として、これはヨーロッパにとって良いことだと思う。アメリカや中国中心でない、資金力のあるラボがもっと必要だし、Mistralは好きだけど、モデルのパフォーマンスの最前線についていけてない感じがする。EUの企業向けの統合スペシャリストやコンサルタントにシフトしているように見える。それはそれでお金を稼がなきゃいけないからいいけど、研究の最前線を完全に譲るのはEUを競争力のある状態に保つためには良くないよ。
シンガポールに拠点を設立しているという他のニュース記事もあるみたいだね。 https://www.straitstimes.com/business/ai-godfather-raises-1-...
彼が誰かよく知らなかったから、ウィキペディアを見つけてみたんだけど、彼が自分のために書いたか、彼を好きな誰かが自分を持ち上げるために書いたみたいな内容だった。 > 彼はニューヨーク大学のコーラント数学科学研究所のコンピュータサイエンスのジェイコブ・T・シュワルツ教授です。MetaプラットフォームのチーフAIサイエンティストを務めた後、自分のスタートアップに移ったんだ。このMetaでの彼の業績についての部分を除けば、その文は全部削除されてもよかったと思う。著名な誰かと自分を比較するのは変だよね。これって、最もカニエ・ウェスト的な行動だよ。彼について読むほど、実際に自己中心的だってことが分かってきた。自己中心的な人と真剣なエンジニアリングチームを持つのは難しいだろうね。
ルカンのAMIに対する技術的アプローチはJEPAに基づくと思うけど、これはアメリカや中国のAIラボとは全然違うアプローチだよね。JEPAについて学びたいなら、ルカンのビジョンドキュメント「自律的機械知能への道」は長いけど、AI研究の包括的なビジョンを描いてるよ。 https://openreview.net/pdf?id=BZ5a1r-kVsf スタートアップでもJEPAモデルのトレーニングが可能だし、例えば、うちは3人のスタートアップで健康の時系列JEPAをトレーニングしたんだ。コンピュータビジョンや(さらには)LLM用のJEPAモデルもあるよ。ここで面白いことをするのに10億ドルのシードラウンドは必要ない。もっと面白くて独自なアイデアがAIには必要だと思うから、アメリカや中国と並んでヨーロッパにも重厚なラボができるのはいいことだと思う。
「関係ない」ってことはないと思うよ。ルカンが正しいかどうかの意見は、これがヨーロッパにとって良いことかどうかに強く関連してるはず。もしLLMが十分で、RSIがすぐそこにある(1年未満)と思ってるなら、これはヨーロッパにとってひどいことだよ。まさに間違ったタイミングでの気を散らす無駄遣いだね。
ヨーロッパのフロンティアモデルがあったらいいなと思うけど、ミストラルもすごく楽しんでるよ。価格とスピードで、私の使い方(言語学習関連のフォーマット、非コード・非研究)には他のモデルを上回ってる。
ちょっと小額投資したファンドのパートナーなんだけど、取引の詳細は知らないんだ。ただ、自動回帰モデルについての意見はあまり重要じゃないと思うけど、自動回帰モデルが機能するかどうかはすごく大事だと思うし、特にLeCunのケースではね。これに投資するのと、若い研究者のスタートアップやIlyaの超知能に投資するのと何が違うの?どちらの場合も、モデルアーキテクチャがうまくいかなければ、彼らは方向転換すると思う。でもYLの場合は、それが本当かどうかわからない。その観点から見ると、この賭けはYLの現在の世界観に賭けていることになる。彼の見解が正しければ、これはヨーロッパにとってすごく良いことだし、間違っていれば、ただの無駄な投資になるかも。会社はおそらく投資額と同じくらいで売却されるだろうし、そのお金はどうせ小さなヨーロッパのスタートアップには行かなかっただろうから、トントンだね。ちなみに、自動回帰に関する「エラーは存在し、エラーは逐次トークン選択の下で常に増幅される、だからエラーは根深く、このアーキテクチャはダメだ」という最初の不満は、知的にはあまり説得力がないと思う。ここでも同じことが言えるよ。「世界モデルのエラーは存在し、世界モデルのエラーは逐次トークン選択の下で常に増幅される、だから世界モデルのエラーは根深く、このアーキテクチャはダメだ。」何が言いたいかわかる?一方で、動画には使われていないトレーニングトークンがたくさんあるし、優れた「世界」知識と最前線のテキスト能力を持つモデルと話したいと思ってる。うまくいくといいな。どちらにせよ、君が言うように、ヨーロッパには最前線のモデル企業が必要で、これがそれになるかもしれない。
> でも、これは応用AIの会社じゃないよ。ヤンのAI/MLへの影響は間違いなく大きいけど、Metaではもっと多くのリソースにアクセスできたのに、何も見えなかった。管理の問題かもしれないけど、もっと競争が見られることを心から願ってる。でも、上で引用した内容から見ると、そうは思えない。記事に出てきた「動画を通じて世界を理解する」ってのは、すでに動画モデルがやってることだし、かなり良くなってきてる(SeedanceやKling、Soraとか見てみて)。だから、彼の提案がどう機能するのかよく分からないんだ。
彼はMetaの企業的な側面に圧迫されてたんじゃないかな。
この二項対立がどうしても納得できない。ほとんどの画期的なディープラーニングの論文は、今の基準で言えば、ほとんど馬鹿げたほど小さなトレーニング予算で開発されてきたんだよね。トランスフォーマーからドロップアウトまで。だから、彼のアイデアが本当に素晴らしいなら、どうしてまだ何も画期的なことに繋がってないのかずっと考えてる。データがもっと必要とか、研究者がもっと必要ってだけじゃないと思うんだ。君はどう思う? :-D
llamaモデルはしばらくの間、限界を押し広げてたし、「オープンウェイト」にすることでたくさんの改良ができた。ほとんどのファインチューニングは、llamaモデルの上に構築された作業から進化したと言えるね。
> ヤンのAI/MLへの影響は間違いなく大きいけど、Metaではもっと多くのリソースにアクセスできたのに、何も見えなかった。それは99%の科学者に当てはまるけど、彼らが世界を揺るがすような研究をしていないからといって、その意見を無視するのは多分良くない。 > もっと競争が見られることを心から願ってる 本当に見たくない、科学は市場じゃないから。 > 動画を通じて世界を理解する 「理解する」って言葉がここではかなり重い役割を果たしてるよね。画像や要約の修正を何度も促しても、「それ」はまだ「理解」してなくて、同じことを繰り返してる。
大体の人は、家でいじくるよりも企業の仕事でずっと高い給料をもらってるよね。「お金を追え」って論理で考えると、彼らが9時から5時までのフルスタックエンジニアとして最もインスパイアされた作品を生み出すのは納得できる。でも、しばしば情熱や探求の自由がリソースよりも重要なんだよね。
> 何も見えなかった。これはトロールなの? ラマを無視しても、メタは基礎研究やオープンソースコードをたくさん発表したからね。もしメタがDETRやMAEみたいなコア研究を公開してなかったら、コンピュータビジョンの分野は何年も遅れてたと思うよ。
ヤン・ルカンが世界モデルスタートアップAMI(アミラボ)の評価額を50億ドル以上にしたいみたい。CEOにはルブランを起用したし、CFOにはルファンド、ポストトレーニングの責任者にはルチューンを雇ったんだって。さらに、成長責任者にルムーネ、推論効率をリードするためにルプルーヌを雇うことも検討中らしい。 https://techcrunch.com/2025/12/19/yann-lecun-confirms-his-ne...
なんで「ルラボ」って呼ばなかったんだろう?
ボルソンみたいな採用方針だね。
最近、世界モデルがAGIに達しないって議論があったよね。規範的な枠組みを見落としていたり、データから純粋に世界の基本的な対称性を無視したり、多段階の推論で崩壊するからだって。JEPAは抽象的な表現のために忠実度を犠牲にしてるけど、忠実度が最も重要なポイントの現実世界でどう役立つの?微分方程式に頼って、実際の問題のほんの一部しかカバーできないことがわかるのと同じだよね。面白い問題はほとんど解けないし。
実際は4.7Bだよ、ここで確認された https://x.com/ylecun/status/2031331124450931058?s=46
それは評価額のことみたいで、実際に調達した金額ではないと思う。
それは大きな基盤モデルでのトレーニングランが1回から10回の間って感じかな。価格の割引や最適化の進捗によるけど。昨夜、AWSで計算してみたけど、確かに高いけど、モデルもどんどん大きくなってるしね。
これがもっと早く起こらなかった理由は2つある。1) 世界がLLMにちょっと偏りすぎてると思う(LLMがもたらす利益や新しい地平は本物だと認めるけど)。他のタイプのモデルに関する研究も続ける必要がある。2) 「ヨーロッパにはエースが必要だ」と書こうとしたけど、俺はヨーロッパ人だけど、競争心は全くない。これはカードゲームじゃないからね。ヨーロッパに本当に必要なのは、魅力的な職場で、AIに役立つ才能が海外だけじゃなくて、ここでも働ける場所を見つけられるようにすることだよ!
もっと多くのモデルに関する研究 = もっと良くなる
こういう資金は通常どのように配分されるのか、誰か知ってる?計算やトレーニングにどれくらい、研究者やインフラ、一般的な運営にどれくらい使われるのが普通なのかな?