ハクソク

世界を動かす技術を、日本語で。

AppleがSiriの機能を強化するためにGoogleの「Gemini」を採用

概要

  • AppleGoogleと提携し、AI機能強化を推進
  • Siriの大幅アップグレードにGeminiとクラウド技術を活用
  • 両社の共同声明によると、Apple独自モデルの基盤にGoogle技術を採用
  • 契約金額や詳細は非公開、OpenAIとの関係は現状維持
  • GoogleのAI戦略強化と市場価値上昇が背景

AppleとGoogleのAI分野における提携

  • AppleGoogleと複数年にわたるAI分野のパートナーシップを締結
  • Google Geminiおよびクラウド技術をAppleの基盤モデル開発に活用
  • 今後リリース予定のSiri大幅アップグレードにGeminiを導入
  • 共同声明で「Googleの技術が最も有能な基盤」とAppleが評価
  • AppleデバイスおよびApple独自のプライベートクラウド上でモデル運用
  • 契約内容や金額についてはAppleがコメントを控える
  • GoogleはCNBCの問い合わせに共同声明を参照するよう回答

提携の背景と業界動向

  • 2023年8月、AppleがGoogleのカスタムGeminiモデル活用を検討中とBloombergが報道
  • AppleがGoogle AI利用のため年間約10億ドル支払う計画とも報道
  • Googleは2025年に2009年以来最高の業績を記録、市場価値でAppleを一時上回る
  • Googleは既にiPhoneのデフォルト検索エンジンとしてAppleに巨額の支払い
  • 独占禁止法訴訟でGoogleのビジネス継続が認められ、Appleとの提携も継続可能に

AppleとOpenAIとの関係

  • AppleはOpenAIと提携し、ChatGPTをSiriやApple Intelligenceの一部に統合
  • ChatGPTは複雑な質問や世界知識の参照に利用
  • 今回のGoogle提携が今後のOpenAIとの連携にどう影響するかは不明
  • Appleは「現時点でOpenAIとの契約に変更なし」と説明
  • OpenAI側はコメントなし

GoogleのAI戦略と業績

  • GoogleはGemini 3などAIモデルを継続的にアップデート
  • 2025年第3四半期までに10億ドル超のクラウド契約を複数締結
  • CEO Sundar PichaiがAI分野での進展を強調
  • Alphabet(Google親会社)の時価総額が一時4兆ドル超に到達
  • AppleはAI分野で出遅れていたが、今回の提携で巻き返しを狙う動き

業界全体への影響

  • Amazon、Meta、Microsoftなど他の大手企業もAIに巨額投資を継続
  • AppleはSiriのAI音声アップグレードを2026年まで延期していたが、今回の提携で開発加速を目指す
  • AI分野での競争激化と提携の重要性が浮き彫り

Hackerたちの意見

関連: AppleがSiriを支えるカスタムGeminiモデルのために10億ドルのGoogleとの契約に近づいている (71ポイント、2ヶ月前、47コメント) https://news.ycombinator.com/item?id=45826975
ここでの一番の新情報は、これがホワイトラベルじゃないってことだね。AppleがSiriを支えるモデルとしてGoogleを公式に認めてる。これってかなり大きな意味があるよ。Appleが後で自社モデルに切り替えるのが難しくなるだろうね。
これって、実際にはお金のやり取りがないAIの契約の一つなのかな?この場合、GoogleがAppleに支払う検索をAppleデバイスのデフォルトにするための手数料を相殺するだけじゃない?
Appleがサーバーサイドのトレーニングにお金をかけようとしなくなった瞬間から、こうなるのは見えてたよね。3年前くらいかな?Appleは世界で最高のエッジ推論用シリコン(ニューラルエンジン)を持ってるけど、トレーニングデータセンターにはほぼ存在感がない。TPUポッドやH100クラスターがないから、Gemini 2.5や3.0のような最先端モデルをゼロからトレーニングするのは、10年分のキャッシュフローを燃やすことになる。私にとって、この契約はインテリジェンスの材料費に関するものだと思う。Appleは、SOTAモデルのトレーニングコストが重い投資で、所有したくないって認めたわけだ。彼らは他社のインテリジェンスのためのプレミアムな「ラストマイル」デリバリーネットワークになる方向にシフトしているみたい。何か見落としてる?これは賢い選択だよ。Googleにギガワットを使わせて、トリリオンパラメータモデルをトレーニングさせる。Appleは量子化を最適化して、プライベートクラウドのコンピュートノードで蒸留版を動かすだけ。ちょっと単純化しすぎだけど、これでiPhoneはAppleのプライバシーの演出に包まれたGoogleの脳のためのダム端末に変わるってことだね。
うん、私も賢いと思う。トレーニングに大金を使った企業がいくつもあって、リターンを求めるのはますます強くなるだろうし。Appleはその中からベストを選んで、自分たちで作るよりも安く済ませられるし、誰かが新しいブレイクスルーを出したら新しいのに切り替えればいいだけだし。
Appleが開発したLLMは、たとえ何十億も計算に投資しても、SOTAより劣ると思う。彼らは他の企業ほど才能を引き寄せることはできないだろうし、特に彼らのAI組織が(報告によれば)うまく運営されていなかったことを考えるとね。変な秘密主義もマイナスだし、文化も悪化していて官僚的だ。過去10年で、Appleがこれらの問題を解決する意欲がないことがわかったから、今回はAppleが自分たちの「ここで発明されていない」症候群を克服することを強いられたのは良かったと思う。
これにより、LLM開発に関する多くの法的問題を距離を置きながら、それでも利益を得ることができるんだ。
> 簡単に言うと、これってiPhoneをGoogleの頭脳のためのダム端末に変えて、Appleのプライバシーの演出で包んでるようなもんだよね。こういうの、Mozillaにはあんまりうまくいかなかった。Appleは他にも収益を上げるビジネスがあるから助かってるけど、スマホOSの唯一の大競合に製品のコア部分を握らせるのはちょっと無茶だよね。
でも、トレーニングコストってそんなに高いの?アレン研究所(非営利)がMolmo 2とOlmo 3モデルを発表したばかりなんだ。彼らは公共のデータセットを使ってゼロからトレーニングして、いくつかのベンチマークでGeminiと競争できるパフォーマンスを出してるよ。[0] [1] AMDも、公開されたコードやデータ、レシピを使って、自社のハードウェアでOLMoの古いバージョンを成功裏にトレーニングできたんだ。[2] 非営利団体とチップベンダー(マーケティング目的でトレーニング)がこれをできるなら、「10年分のキャッシュフローを燃やす」必要は明らかにないよね。
> 簡単に言うと、これってiPhoneをAppleのプライバシー演出に包まれたGoogleの脳のためのダムターミナルに変えてしまうってこと。最後のHNへの皮肉は置いといて、LLMは今や商品化されていて、Appleが構築しているインテリジェンスシステムの中で最も重要でない要素だよ。Appleがやっているのは、すべてのアプリデータをコンテキストとして、すべてのアプリ機能をスキルとして公開することなんだ。(アプリインテント、コアスポットライト、Siriショートカットなどを参照。)Appleが特定のサプライヤーに縛られることを異常に嫌がることを理解している人なら、彼らがすべての基盤モデルでこの統合をテストしていること、いつでもGoogleを別のベンダーに入れ替えられること、そしてこの依存関係を排除するための長期的な計画があることがわかるはず。 > Appleは、最先端モデルのトレーニングコストが資本支出の重荷で、彼らが所有したくないものであることを認めた。これに関する引用があれば興味あるな(Appleは2025年に2つの多言語・多モーダルの基盤言語モデルを導入した)、でもとにかくAppleから公に聞こえてくることは、彼らが次の数四半期にあなたに思ってほしいことだよ。実際の5年、10年、20年の計画の指標ではない。
結局、やっぱり堀があるみたいだね。その堀は才能、文化、コンピュート。Appleは最先端AIに関してこの3つを持ってない。
10年分の現金?だから、1億ドル未満でやった中国の研究所は、開発者1人あたり3人の頭を持ってるってことだよね?
これについていつも考えてるんだけど、もっと知識のある人にこの運用の脆弱性について教えてもらえないかな?これらの非常に時間がかかり、リソースを大量に消費する大規模な運用の価値は、結局最後に生産されるウェイトに完全に依存してるってことだよね?オープンソースのウェイト(西 vs 東のAIレース)やリークなど、他のプレイヤーが別の方法でこれを実現している中で、Appleのこの戦略は本当に賢いと思う。彼らがここで与えている唯一のチャンスは「市場に最初に出ること」だよね?最終的にはウェイトがみんなの目に触れるようになるって考えても大丈夫かな?
LLMの状況はまだ進化しているみたいで、自分でモデルをトレーニングすることには技術的なメリットがないように思える。単に購入したりリースしたりすればいいから、追加のエンジニアスタッフやデータセンターの構築の負担がないしね。将来的にはLLMの研究が停滞して、独自のコモディティLLMを構築・維持するROIが許容できるものになるかもしれない。AppleはSiriを製品・機能として持っていて、10年近くの間に音声アシスタントに対して熟練度を高めるつもりがないことを証明してきた。妻は少なくとも10年以上AppleのiPhoneを使ってるけど、その間にSiriを使ったのを2回くらいしか聞いたことがないよ。
何よりも、これがGoogleが最も安定したAIラボだから進んだんじゃないかな。Geminiは客観的に見て良いモデルだし(ランキングが1位か5位かは別として)、Appleは自信を持って良い(十分な)製品を提供できる。さらにAppleは、提供者が信じられないほどの資金力を持っていて、大企業向けの理解とインフラも整ってるし、収益源も多様化してることを知ってる。AnthropicやOpenAIを選ぶのは、表面的にはクリーンなAppleの香りや感触があっても、Appleにとってはリスクが大きい。両社ともかなり厳しい状況で、リスクを取る可能性が高いし、少しでも遅れを取ると沈む可能性もあるからね。
俺は、GoogleがAppleに年間200億ドル払って、事前に選ばれた検索エンジンになってるってことが影響してるんじゃないかと思ってる。これでAppleは190億ドルと、さらに無料のAIエンジンも手に入れるわけだし。
OpenAIには、なんかクリーンな感じが全然しないよね。
OpenAIについては、クリーンなところなんて何もないよ。彼らの組織はAltmannが支配していて、解雇された後に自分を再雇用できたんだ。Anthropicはデータセンターを一つも持ってなくて、AWSやMicrosoft、Googleから借りてる。
そうそう、Anthropicは常にパフォーマンスの問題があるし(GPUが足りない)、OpenAIは政治とオルトマンでごちゃごちゃしてる。
> ジェミニは客観的に見て良いモデルだよね(ランキングが1位か5位かは別として)。だから、Appleは自信を持って良い(十分な)製品を提供できると思う。今のところ、Appleはとにかく何かを出さないといけないね。もう2年近く前に、まだ出荷されていない機能を持った電話を売って、「Apple Intelligenceは2ヶ月後に来る」って約束したんだから。
これはちょっと複雑な話だね。1. Siriが悪いっていう声がかなり強いから、Appleがより高品質なバージョンを出しても、結局は悪いってレッテルを貼られるだろうね。ユーザーの生活を向上させてデバイスを使いやすくするかもしれないけど、全体的な報道は、何かおかしなことをした例ばかりが取り上げられるだろう。2. SiriをGoogleのGeminiに基づかせることで、その悪い報道を少し和らげることができるかも。というのも、そのネガティブなコメントの一部はブランド忠誠者やアストロターフィングから来てるから。3. 最後の問題は、デバイス上のSiriはサーバーベースのChatGPTのようには動かないってこと。だから、モバイルデバイスのハードウェアで動かすことには妥協があるってことを理解していないユーザーには、すでに失望させることになるかも。これを示すために、John Gruberのような人がAppleのデバイス上の画像生成おもちゃ(1秒に1枚くらい生成するやつ)と、OpenAIのサーバーファームベースの画像生成器(1枚作るのに約1〜2分かかる)を比較してるのを見たことがある。だから、長年のテックブロガーがその技術的制限に対して寛容になれないなら、ユーザーがそうなるとは思えない。
3に関してだけど、GoogleがAppleにデバイスに載せるための重みを渡すとは思えないな。
でも、Siriは客観的に見てもダメだよ。これは恨みとかじゃない。私は障害を持っていて、Siriにやってほしい簡単なことが50個以上あるのに、全然できないんだ。特に印象に残ってるのは、小さなけど大事じゃない転倒をしたとき、Siriに911を呼ぶように頼んだんだけど、6フィートも離れてないのに全く理解できなかったし、リクエストを実行することもできなかった。こういうことがたくさんあるんだ。基本的な機能がしばしばうまく動かない。 > 最後の問題は、デバイス上のSiriはサーバーベースのChatGPTのようには動かないってことだよね。だから、ある意味では、モバイルデバイスのハードウェアで動かすことにはサーバーファームにはない妥協があるってことを理解してないユーザーを失望させることになるかもしれない。何年も前から、Siriのリクエストは外部サーバーに送られてたけど、それでもダメだった。
これはかなり重要な独占禁止問題のように思える。二つのモバイルOSメーカーのうちの一つが、他方の製品をAIアシスタントに使ってるわけだから。つまり、ほぼすべてのモバイルデバイスが同じAI技術を使うことになる。今のアメリカ政府がこれに対して何かするとは思えないけど。
どの独占禁止法が違反されると思う?正直、ここに問題があるとは思えないんだ。企業はサービスプロバイダーを選ぶ自由があるし、市場を支配する自由もある(ただし、その支配的な地位を乱用しない限りね)。
これは消費者として本当にワクワクする発表だよ。うちの子供たちには、8歳の誕生日にHomePodを最初のデバイスとしてあげてるんだけど(10歳でApple Watch、12歳でノートパソコン)、この6年間で全然進化してないんだ。子供たちはポッドキャストを聞いたり、情報を得たりしたいんだけど、ChatGPTやGeminiとの音声対話でできることが、Siriにはできない。Siriはただ無駄ってわけじゃなくて、実際かなりイライラするよ!
Siriは同じ名前の曲があるとApple Musicのアルバムを再生できないんだよね。「アルバムXYを再生して」って言っても、Siriはその曲だけを再生するだけ。ほんとに笑えるくらいダメだよ。
既存のHomePodが何をサポートするかはまだわからないね。HomePodのハードウェアアップデートはずっと進行中みたいで、新しいSiriが準備できるのを待ってる感じだね。
「Siri、オーディオブックを再生して」と言って、最後に聴いたオーディオブックが再生されないなんて、マジでありえないよね。ちょっと、頼むよ。
これは実際、Appleにとって賢いし常識的な動きだよ。ハードウェア以外のAI業界は、現在市場シェアを確立して維持するためのR&Dレースにあるけど、Appleは既存のiPhone、iPad、Macのエコシステムを持ってるから、すでにコントロールできる市場シェアがあるんだ。だから、自分たちのソリューションに多額の投資をする前に、AI市場が安定するのを待つことができる。今のところ、Appleは信頼できるAIプロバイダーと提携して、短期的に顧客にAIサービスや利点を提供できるし、その後、AI技術がもっと長期的な一貫性と標準化に達したら、確立されたAI企業を買収して自社のAIプラットフォームを立ち上げることができる。
これはSiriにとって多くの面で良いことだよ。でも、電話のハードウェアがSiriレベルのタスクをほぼ100%ローカルで処理できるようになる時が早く来てほしいな、インターネット接続が必要なくなるっていうのを期待してたんだけど。
それは見られると思うけど、Siriは今かなりボロボロだから、Appleは今すぐ何か必要なんだよね。彼らはローカルでうまく動くマイクロスケールのLLMモデルを探し続けてるけど、その二つは相反するものじゃないよ。Appleが一番やらなきゃいけないのは、クラウドと非クラウドのモデルを将来的にサポートできる一般的なパイプラインを立ち上げることだと思う。それに、エージェントスタイルの作業負荷(例えば、「再起動」、「音量調整」、「スクリーンショットを取る」など)に対応するためのローカルツールと統合することもね。
「Siriレベル」のタスクの明確な境界はないと思う。特に、タスクが「Siriレベル」かどうかを正しく判断するには、オフデバイスAIが必要になる可能性が高い。
誰かAppleの「プライベートクラウドコンピュート」サーバーが実際に何なのか知ってる? Mチップを使ったラックマウント型とか、カスタムデータセンター専用のバリエーションについての噂を聞いたことがあるんだけど。Appleが消費者向けのシリコンと、何百万ものユーザー向けにカスタマイズされたGeminiモデルを運用するためのデータセンター規模のスタックとのギャップをどう埋めているのか、すごく気になる。サンダーボルト経由のRDMAは小規模な研究室のクラスターにはいいけど、データセンターでは別の何かを使ってるよね?
彼らはすでにGCPをストレージに使ってるから、彼らの間に大きな結びつきがあるのは確かだね。