Vol.159-4
本連載では、ジャーナリスト・西田宗千佳氏がデジタル業界の最新動向をレポートする。今回はアップルがグーグルの生成AI「Gemini」の技術を「Apple Intelligence」に活用する話題。他社の技術を用いる必要性が生まれた要因は何か。
今月の注目AI
アップル
Apple Intelligence
iPhoneやiPad、Macで利用できる“アシスタント”的なAI。情報はデバイス内で処理されるため、セキュリティ面での安全性が高い。ただしChatGPTやGeminiなどの生成AIと比較して、その立ち遅れが指摘されている。

スマートフォンでAIを使う上で重要な要素はどんなものになるのか?
どの企業も方向性は同じであるようだ。それは「プロアクティブ(自発的)に動作する」ことと考えていいだろう。
現在、多くのAIサービスではまず、プロンプトの形で情報や命令を与える。検索や会話に使うならこれでいいだろう。
一方で、人間は意外とやってほしいことを正確に伝えるのが苦手な生き物だ。「あれ、よろしく」みたいな形で家族や友人にお願いして、「あれ」の解釈が間違っていて大変なことになった記憶はないだろうか。やってほしいことを正しく順番にAIに伝えるには、自分自身が「やってほしいことの中身とは何か」を明確に理解しておく必要がある。
常に素早く、正確に命令できる人は意外と少なく、その点がプロンプト(命令)を活用するAIサービスの抱える課題の1つになっている。
だからこそ、多くの人が使うスマホ向けのAIサービスでは、「シンプル」と「プロアクティブ」が重要になる。画像から自動的に日時を読み取って予定を登録するボタンを出す、といった機能は、シンプルかつプロアクティブなAIの好例だ。
ただそれだけでは、「AIで新しいスマホがほしくなる」ところまではいかないだろう。もっと便利な機能が必要になる。
現状、それが何かはまだ見えていない。だが、必要なことはいくつかわかっている。
1つ目は、利用者がスマホの中で取った行動を理解することだ。誰とどんなメッセージをやりとりしたのか、いまどこへ向かっているのか、次の予定はどんなものかといった、その人の行動に関わる情報をAIが理解し、それに合わせて動く必要が出てくる。オンデバイスAIや、プライベートなクラウドを使ったAIが必要と言われるのはそのためだ。
2つ目は、多様な情報を賢く把握し、やるべきことを順番にこなしていけること。これは「AIエージェント」として注目されているものだが、複数のAIモデルが動く必要があるし、1つひとつのAIモデルが賢いものである必要も出てくる。
実のところ、アップルが2024年にApple Intelligenceを発表した段階では、「シンプルでプロアクティブなAI」の姿が提示されていた。しかし、アップルが現状持っているAIモデルでは理想を実現できず、中核となる「改良したSiri」の提供は2026年に延期されている。Geminiをアップルが導入するのも、AIモデルに関する課題を解決するためなのだ。
逆に言えば、Geminiを持っているGoogleは同じことが可能という話にもなる。サムスンが2月末に発表した「Galaxy S26」シリーズでは、シンプルでプロアクティブなAIをアピールしている。
持っている技術が横並びになっている今日の状況は、利用者にわかりやすくて実効性の高い機能をいかに搭載するかの競争になっている、と考えればいいだろう。
そして、その勝ち負けは2026年中にある程度見えてくることになりそうだ。
週刊GetNavi、バックナンバーはこちら