SiriがGeminiで進化!Apple×Google提携の全容

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube

この記事でわかること

  • AppleとGoogleがAI分野で結んだ年間約1000億円の大型提携の中身
  • Geminiを搭載した新しいSiriでできるようになること
  • OpenAIではなくGoogleが選ばれた意外な理由
  • プライバシーは本当に守られるのか
  • 日本での提供時期と対応するiPhoneの機種

AppleとGoogleが歴史的AI提携を発表

2026年1月、AppleとGoogleが衝撃しょうげき的な発表をしました。iPhoneの音声アシスタント「Siri」を、Googleの最新AI「Gemini(ジェミニ)」をベースに作り直すというのです。

この提携は複数年にわたる大型契約で、Appleが年間約10億ドル(約1,540億円)をGoogleに支払うと報じられています。たとえるなら、iPhoneの「頭脳」をGoogleの最先端AIに入れ替えるようなものです。

AppleとGoogleは共同声明で「慎重に評価した結果、Googleの技術がApple Foundation Modelsにとって最も優れた基盤を提供すると判断しました」とコメントしています。ライバル同士が手を組む、まさに歴史的な出来事です。

新しいSiriでできること — 8つの進化ポイント

Geminiを搭載した新しいSiriは、これまでとはまったく別物になります。注目すべき進化ポイントを紹介します。

画面を「見て」理解する

一番の目玉は「オンスクリーン認識」です。Siriがスマホの画面に表示されている内容をリアルタイムで「見て」理解できるようになります。たとえば、写真やPDFを開いた状態で「これをサラに送って」と言うだけで、Siriが内容を認識して送信してくれます。

会話の文脈を理解する

新しいSiriは1.2兆個のパラメータ(AIが学習した知識の量を表す数字)を持っています。これにより、前の会話の内容を覚えたまま自然にやりとりを続けられます。「お母さんのフライトは何時に着く?」と聞くだけで、メールアプリから該当する情報を自動で見つけてくれるのです。

100万トークンの長期記憶

新しいSiriは最大100万トークン(日本語で約50万文字分)の情報を一度に処理できます。つまり、数カ月分のメール、メッセージ、カレンダーの情報を「覚えて」おけるのです。ちなみに、従来のSiriではこうした長期的な文脈の理解はできませんでした。

複雑な質問にも正確に回答

複数のアプリをまたぐ複雑な質問への正答率は92%に達しました。従来のSiriが58%だったことを考えると、大幅な進化です。「明日の会議の資料をメールから探して、カレンダーの予定も確認して」といった複雑なお願いにも対応できるようになります。

なぜOpenAIではなくGoogleを選んだのか

実は、AppleはChatGPTを開発するOpenAIにも声をかけていました。しかし、OpenAI側がこの取引を断ったのです。

OpenAIの関係者によると、「Appleの専用せんようモデル提供者にはならない」という判断だったそうです。OpenAIは現在、元Appleデザイン責任者のジョニー・アイブと共同で独自のAIデバイスを開発しており、そちらに注力する道を選びました。

また、Anthropic(アンソロピック)のClaude(クロード)も候補に挙がっていましたが、価格面で折り合わなかったと報じられています。結果的に、巨大なデータセンターと長年のAI研究実績を持つGoogleが最適なパートナーとなりました。

AI研究者の間では「Appleは自社チップで垂直統合を進めてきたが、LLM(人間のように文章を書けるAI)の学習にはGoogleのデータセンター規模が必要だった」という指摘もあります。

プライバシーは大丈夫?Appleの対策

「GoogleにiPhoneのデータが流れるのでは?」と心配する人も多いでしょう。Appleはこの点について明確な回答をしています。

まず、GeminiベースのAI処理はAppleが管理するサーバー(Private Cloud Compute)で行われます。ユーザーのデータがGoogleに送られることはありません。これは「ホワイトラベル」と呼ばれる形式で、Googleの技術はAppleの仕組みの中で動き、ユーザーからはGoogleやGeminiのブランドは一切見えません。

ただし、一部の専門家からは懸念の声も上がっています。GoogleのCEOスンダー・ピチャイ氏が「GoogleはAppleの優先クラウドプロバイダーだ」と発言したことで、将来的にはAppleの独自サーバーではなくGoogleのサーバーで処理される可能性も指摘されています。

つまり、現時点ではプライバシーは守られる仕組みですが、今後の動向には注目しておく必要があります。

対応機種と日本での提供時期

新しいSiriはiOS 26.4のアップデートで提供されます。スケジュールは以下のとおりです。

  • 2026年2月:ベータ版(開発者・テスター向け)の提供開始
  • 2026年3月〜4月上旬:一般ユーザー向けに正式リリース

対応機種はiPhone 15 Pro以降です。また、M1チップ以降を搭載したiPadやMacでも利用できます。Apple Intelligenceの日本語対応はすでに2025年4月から始まっているため、Gemini搭載Siriも日本語で利用できると期待されています。

ちなみに、iPhone 15(無印)やそれ以前のモデルでは新しいSiriは使えません。この機会にiPhoneの買い替えを検討する人も増えそうです。

音声アシスタントの未来はどう変わる?

今回の提携は、音声アシスタントの歴史における転換点と言えます。

これまでSiriは「天気を聞く」「タイマーをセットする」程度の単純な作業にしか使えない、という印象いんしょうが強いものでした。しかし、Geminiの力を借りることで、Siriは「本当に頼れるAIアシスタント」へと進化します。

たとえば、こんな使い方が可能になります。

  • メールの内容をもとに会議のスケジュールを自動で調整
  • ビデオ通話中に関連する資料を探して表示
  • 画面に映っているレストランの情報から予約を手配
  • 数カ月前のやり取りを踏まえた提案をしてくれる

一方で、AmazonのAlexa(アレクサ)やSamsung(サムスン)のBixby(ビクスビー)も独自のAI強化を進めています。2026年は「AIアシスタント戦国時代」の幕開けになりそうです。

まとめ

AppleとGoogleの歴史的な提携により、Siriが大きく生まれ変わります。最後に要点を振り返りましょう。

  • AppleはGoogleのGeminiをベースに新しいSiriを開発。年間約1,540億円の大型契約
  • 画面認識、文脈理解、100万トークンの長期記憶など、革新的な新機能が追加
  • OpenAIが取引を辞退したため、Googleが選ばれた
  • 処理はApple管理のサーバーで行われ、プライバシーは維持される方針
  • iOS 26.4で2026年3月〜4月に一般提供。対応はiPhone 15 Pro以降

「Siriは使えない」と感じていた人も多いかもしれません。しかし、Geminiの力で本当に頼れるAIアシスタントに変わろうとしています。iOS 26.4のリリースが今から楽しみですね。

参考文献

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です