Nvidiaの200億ドルの独占禁止法の抜け穴
概要
Nvidiaは2025年末、Groqの知的財産と主要人材を約2兆円で取得。
買収ではなく「非独占ライセンス契約」として構造を工夫。
GroqCloud事業やサウジ契約は切り離し、規制や地政学リスクを回避。
SRAM中心のLPUアーキテクチャが推進力、AI推論市場の変化を見据えた決断。
この取引で勝者・敗者が明確化、米AI業界の構造変化を象徴。
NvidiaによるGroq「非買収」劇の真相
- 2025年11月、Groq CEO Jonathan RossがNvidiaへの挑戦理由を問われ「競争は無駄。差別化こそ価値」と発言
- 49日後、NvidiaがGroqの知的財産と経営陣を約2兆円で取得
- ただし、Groq本体やGroqCloud事業は買わず、IPと人材のみを引き抜き
- Jensen Huangの声明「Groqを会社としては買収しない」が全てを物語る
- 過去最大規模の投資であり、通常の買収とは異なる構造
Nvidiaが取得したもの/しなかったもの
- 取得したもの
- Groqの知的財産・特許
- Groqの推論技術の非独占ライセンス
- CEO Ross、President Madra、幹部チーム
- 取得しなかったもの
- GroqCloud事業(クラウドインフラ)
- GroqCloudはCFO Simon Edwardsの下で独立運営継続
LPUアーキテクチャの意義
- 従来のCPU/GPUは外部DRAM/HBM依存、推論時のレイテンシ・消費電力が課題
- TPUは大容量バッファとシストリックアレイで効率化も、完全な解決に至らず
- GroqのLPUはSRAM大容量搭載、推論モデル全体をオンチップで保持
- 帯域80TB/s、容量230MB/チップ
- 外部メモリボトルネック排除、完全決定論的実行
- 推論速度・低消費電力で圧倒的優位
- Llama 2 7B:750トークン/秒
- Llama 2 70B:300トークン/秒
- Mixtral 8x7B:480トークン/秒
- 制約:14GBのSRAM/ラック、超巨大モデルは非対応、学習不可
取引構造とその狙い
- 2025年9月にGroqは**$6.9B評価で資金調達**
- 3ヶ月後、Nvidiaが$20BでIPと人材を取得(実質3倍のプレミアム)
- 従来型M&Aなら発生する規制審査やCFIUS、株主投票を回避
- 「非独占ライセンス」は法的フィクション、実質的独占確保
- Nvidiaが得たもの
- 規制回避による迅速な統合
- Meta/Llama連携の無力化
- GroqCloud切り離しでサウジ契約回避
- 政治的利得(投資家・政権との関係強化)
- 他社による買収・提携阻止
サウジアラビア問題の回避
- サウジは2025年2月、Groqのデータセンター拡張へ$1.5B投資
- GroqCloudは中東・欧米でAIインフラ提供、国家規模の推論基盤
- これがCFIUS(対米外国投資委員会)問題を引き起こす懸念
- NvidiaはGroqCloud事業を切り離すことで規制・地政学リスク回避
誰が得をしたか
- VC(Chamath, BlackRock等):持分に応じて配分
- 経営陣(Ross, Madra他):Nvidiaでのリテンション・サインオンボーナス、既存株式も現金化
- 一般従業員:契約次第だが、持株分が分配される可能性も(詳細は非公開)
今後の展望
- SRAM中心アーキテクチャの価値がAI推論時代で再評価
- Nvidiaのエコシステム支配強化、競合他社の選択肢縮小
- 規制の抜け道をついた新しいM&A手法の象徴
- 米国AI産業の地政学的リスク回避策としても注目