Googleが、AIアシスタント「Gemini Live」に新機能を導入しはじめていることが明らかとなりました。スマートフォンの画面やカメラを通じてリアルタイムで情報を取得し、ユーザーの質問に答えるようです。

これは同社の広報担当者はThe Vergeに対して、メールで確認した形です。Googleが人間とAIの自然なやり取りを可能にする「Project Astra」のデモを行なってから約1年後のことになります。
ほぼ時を同じくして、大手掲示板RedditのユーザーはXiaomiのスマートフォンに同機能が登場したと報告していました。その人物が公開した動画では、Geminiが画面を読み上げています。
これはGoogleが3月初めに「Google One AIプレミアム(月額2900円)の一部として、Gemini Advancedの加入者に展開を始めます」と発表した2つの機能のうちの1つです。
もう1つの機能は「ライブビデオ」であり、これによりGeminiはカメラからの情報をリアルタイムで解釈し、それに関する質問に答えられます。Googleが今月公開した動画では、釉薬をかけたばかりの陶器に使う塗料の色を決めるためGeminiにアドバイスを求めています。
GoogleのPixel 9 Pro、Pixel Pro XL、Pixel 9 Pro Foldを購入すると、Google One AIプレミアムプランが12ヶ月無料で利用できます。アップルがiPhone向けのApple Intelligenceの開発に苦戦しているなか、大きな強みとなりそうです。
Source:9to5Google
via:The Verge