ユーザーに代わって自律的にタスクをこなす「AIのエージェント化」が加速しています。その最前線ともいえるGoogle Geminiの新機能「画面自動操作(Screen Automation)」が、Galaxy S26シリーズで解禁されて話題を呼びましたが、いよいよ米国ではPixel 10シリーズへの展開も始まっています。

この画面自動操作は、対応アプリ内で配車の予約や食事・食料品の注文を行える機能です。対応アプリにはLyft、Uber、Uber Eats、GrubHub、DoorDash、Starbucksなどが含まれます。Geminiのプロンプト入力欄で使えるコマンドには、次のようなものがあります。
- 空港までの配車を予約して
- 明日の配車を予約して
- 前回注文したコーヒーを再注文して
- ピザを配達で注文して
- 牛乳と卵を買い物カートに追加して
- 母の家に食料品を注文して
また、たとえばStarbucksのアプリでは「ストロベリー・アサイー・レモネードリフレッシャーとソーセージ・チェダー・卵のサンドイッチを注文して」といった具体的な注文も可能です。
初回の利用時には「Geminiでタスクを実行する(Get tasks done with Gemini)」への同意が求められます。その後「タスクを実行中(Working on this task)」というカードと「タスクが進行中(Task in progress)」というシステム通知が表示されます。
さらに、タスク進行中に状況を確認したり、タスクを停止したりすることも可能。アプリはPixel上で安全な仮想ウィンドウとして開かれ、処理はクラウドベースで行われます。他のGemini機能と同じく、無料版は5回/日、AI Plusは12回/日、AI Proは20回/日、AI Ultraは120回/日の利用制限があります。
同機能は現在のところPixel 10、Pixel 10 Pro、Pixel 10 Pro XL向け(Android 16 QPR3 March 2026)に展開中。日本でいつ利用可能となるのかは明らかにされていませんが、水面下では国内の配車・宅配・ネットスーパーなどとの調整が進んでいるのかもしれません。
Source: 9to5Google