
Appleは、将来のSiriおよびApple Intelligence機能において、Googleの生成AIモデル「Gemini」を採用することを正式に認めた。CNBCのジム・クレイマー氏への声明の中で明らかにした。
Appleは声明で、「慎重な評価の結果、Googleの技術がApple Foundation Modelsの基盤として最も有力だと判断した。このパートナーシップによって、ユーザーに新しい体験を届けられることを楽しみにしている」と述べている。
CNBCによれば、この提携は複数年にわたるもので、AppleはGoogleのGeminiモデルおよびクラウド技術を、自社のApple Foundation Modelsの将来バージョンに活用する。具体的な技術内容や役割分担については明らかにされていないが、Apple Intelligenceの一部機能をGeminiが支える形になるとみられる。
Gemini採用は遅れていた「Siri刷新」の現実解か

AppleはWWDC 2024で「Apple Intelligence」を発表し、通知要約、文章生成、画像生成、Genmojiなど多数のAI機能を披露した。その中核として位置づけられていたのが、パーソナルコンテキスト理解やアプリ横断操作、画面認識を備えた新しいSiriだ。
しかし、この刷新版Siriだけは提供が延期されていた。Appleは昨年5月、John Gruber氏に対し「想定以上に時間がかかっている」と説明している。今回のGemini採用は、その “遅れ” に対する現実的な打開策と見るのが自然だろう。
BloombergのMark Gurman氏は以前からこの提携を報じており、AppleがGeminiへのアクセス料として年間約10億ドルを支払う見込みだとしている。また、新しいSiriには約1.2兆パラメータ規模のAIモデルが使われるとも伝えられている。
重要なのは、AppleがAIの主導権を完全にGoogleへ渡すわけではないということ。報道によれば、GeminiはApple Intelligenceの「一部機能」を担い、引き続きApple独自モデルも併用される。オンデバイス処理やプライバシー重視の設計と、クラウドベースの高性能AIを使い分ける構図になっているようだ。
Appleはこれまで「内製AI」を強調してきたが、生成AI競争が激化する中で、実用性とスピードを優先した判断を下した形だ。Siriが本当に「使える」アシスタントへ進化できるのか。その答えは、今年のWWDCや年後半に予定される新機能の投入で明らかになるだろう。
情報ソース





