この記事でわかること
- AppleとGoogleがAI分野で結んだ年間約1000億円の大型提携の中身
- Geminiを搭載した新しいSiriでできるようになること
- OpenAIではなくGoogleが選ばれた意外な理由
- プライバシーは本当に守られるのか
- 日本での提供時期と対応するiPhoneの機種
AppleとGoogleが歴史的AI提携を発表
2026年1月、AppleとGoogleが衝撃的な発表をしました。iPhoneの音声アシスタント「Siri」を、Googleの最新AI「Gemini(ジェミニ)」をベースに作り直すというのです。
この提携は複数年にわたる大型契約で、Appleが年間約10億ドル(約1,540億円)をGoogleに支払うと報じられています。たとえるなら、iPhoneの「頭脳」をGoogleの最先端AIに入れ替えるようなものです。
AppleとGoogleは共同声明で「慎重に評価した結果、Googleの技術がApple Foundation Modelsにとって最も優れた基盤を提供すると判断しました」とコメントしています。ライバル同士が手を組む、まさに歴史的な出来事です。
新しいSiriでできること — 8つの進化ポイント
Geminiを搭載した新しいSiriは、これまでとはまったく別物になります。注目すべき進化ポイントを紹介します。
画面を「見て」理解する
一番の目玉は「オンスクリーン認識」です。Siriがスマホの画面に表示されている内容をリアルタイムで「見て」理解できるようになります。たとえば、写真やPDFを開いた状態で「これをサラに送って」と言うだけで、Siriが内容を認識して送信してくれます。
会話の文脈を理解する
新しいSiriは1.2兆個のパラメータ(AIが学習した知識の量を表す数字)を持っています。これにより、前の会話の内容を覚えたまま自然にやりとりを続けられます。「お母さんのフライトは何時に着く?」と聞くだけで、メールアプリから該当する情報を自動で見つけてくれるのです。
100万トークンの長期記憶
新しいSiriは最大100万トークン(日本語で約50万文字分)の情報を一度に処理できます。つまり、数カ月分のメール、メッセージ、カレンダーの情報を「覚えて」おけるのです。ちなみに、従来のSiriではこうした長期的な文脈の理解はできませんでした。
複雑な質問にも正確に回答
複数のアプリをまたぐ複雑な質問への正答率は92%に達しました。従来のSiriが58%だったことを考えると、大幅な進化です。「明日の会議の資料をメールから探して、カレンダーの予定も確認して」といった複雑なお願いにも対応できるようになります。
なぜOpenAIではなくGoogleを選んだのか
実は、AppleはChatGPTを開発するOpenAIにも声をかけていました。しかし、OpenAI側がこの取引を断ったのです。
OpenAIの関係者によると、「Appleの専用モデル提供者にはならない」という判断だったそうです。OpenAIは現在、元Appleデザイン責任者のジョニー・アイブと共同で独自のAIデバイスを開発しており、そちらに注力する道を選びました。
また、Anthropic(アンソロピック)のClaude(クロード)も候補に挙がっていましたが、価格面で折り合わなかったと報じられています。結果的に、巨大なデータセンターと長年のAI研究実績を持つGoogleが最適なパートナーとなりました。
AI研究者の間では「Appleは自社チップで垂直統合を進めてきたが、LLM(人間のように文章を書けるAI)の学習にはGoogleのデータセンター規模が必要だった」という指摘もあります。
プライバシーは大丈夫?Appleの対策
「GoogleにiPhoneのデータが流れるのでは?」と心配する人も多いでしょう。Appleはこの点について明確な回答をしています。
まず、GeminiベースのAI処理はAppleが管理するサーバー(Private Cloud Compute)で行われます。ユーザーのデータがGoogleに送られることはありません。これは「ホワイトラベル」と呼ばれる形式で、Googleの技術はAppleの仕組みの中で動き、ユーザーからはGoogleやGeminiのブランドは一切見えません。
ただし、一部の専門家からは懸念の声も上がっています。GoogleのCEOスンダー・ピチャイ氏が「GoogleはAppleの優先クラウドプロバイダーだ」と発言したことで、将来的にはAppleの独自サーバーではなくGoogleのサーバーで処理される可能性も指摘されています。
つまり、現時点ではプライバシーは守られる仕組みですが、今後の動向には注目しておく必要があります。
対応機種と日本での提供時期
新しいSiriはiOS 26.4のアップデートで提供されます。スケジュールは以下のとおりです。
- 2026年2月:ベータ版(開発者・テスター向け)の提供開始
- 2026年3月〜4月上旬:一般ユーザー向けに正式リリース
対応機種はiPhone 15 Pro以降です。また、M1チップ以降を搭載したiPadやMacでも利用できます。Apple Intelligenceの日本語対応はすでに2025年4月から始まっているため、Gemini搭載Siriも日本語で利用できると期待されています。
ちなみに、iPhone 15(無印)やそれ以前のモデルでは新しいSiriは使えません。この機会にiPhoneの買い替えを検討する人も増えそうです。
音声アシスタントの未来はどう変わる?
今回の提携は、音声アシスタントの歴史における転換点と言えます。
これまでSiriは「天気を聞く」「タイマーをセットする」程度の単純な作業にしか使えない、という印象が強いものでした。しかし、Geminiの力を借りることで、Siriは「本当に頼れるAIアシスタント」へと進化します。
たとえば、こんな使い方が可能になります。
- メールの内容をもとに会議のスケジュールを自動で調整
- ビデオ通話中に関連する資料を探して表示
- 画面に映っているレストランの情報から予約を手配
- 数カ月前のやり取りを踏まえた提案をしてくれる
一方で、AmazonのAlexa(アレクサ)やSamsung(サムスン)のBixby(ビクスビー)も独自のAI強化を進めています。2026年は「AIアシスタント戦国時代」の幕開けになりそうです。
まとめ
AppleとGoogleの歴史的な提携により、Siriが大きく生まれ変わります。最後に要点を振り返りましょう。
- AppleはGoogleのGeminiをベースに新しいSiriを開発。年間約1,540億円の大型契約
- 画面認識、文脈理解、100万トークンの長期記憶など、革新的な新機能が追加
- OpenAIが取引を辞退したため、Googleが選ばれた
- 処理はApple管理のサーバーで行われ、プライバシーは維持される方針
- iOS 26.4で2026年3月〜4月に一般提供。対応はiPhone 15 Pro以降
「Siriは使えない」と感じていた人も多いかもしれません。しかし、Geminiの力で本当に頼れるAIアシスタントに変わろうとしています。iOS 26.4のリリースが今から楽しみですね。
