Vol.151-3
本連載では、ジャーナリスト・西田宗千佳氏がデジタル業界の最新動向をレポートする。今回はGoogleが公開したAIを活用したスマートグラス「Android XR」の話題。これまでのスマートグラスと異なる点と新たな可能性を探る。
今月の注目アイテム
AI活用型スマートグラス
価格未定

Googleと共同でサムスンが開発中の「Project Moohan」はどんな製品なのだろうか? 2025年6月末現在、発売日や価格などは公開されていない。だが、海外では年内には発売、とされている。日本国内での展開は未公表だ。
筆者は5月に行われたGoogleの開発者イベント「Google I/O 2025」で実機を体験しているので、その概要をお伝えしたい。

まず、形状がApple Vision Proにかなり近い。ヘッドセット型の本体にケーブルでバッテリーが接続されている形だ。ただ、Vision Proと異なり、バンドは布製ではなくプラスチック製。前面から後ろまでつながっている構造である。デザイン的にも、頭の後ろで締める構造的にも、Vision ProというよりはMeta Quest Proに近い。フェースパッドは目の下から頬の部分にすき間があり、顔への圧迫がほとんどないのが特徴だ。そのため、Vision Proよりも付けやすく、負担が少ない。
公開されている情報によれば、使っているSoCはQualcommの「Snapdragon XR2 Plus Gen 2」。XR向けに作られたSoCの中でもハイエンドなものだ。ディスプレイは高解像度のマイクロOLEDを使っている。正確な解像度・パネルメーカーは明かされていないが、筆者が見た感じ、「Vision Proよりも若干劣る」くらいの印象である。
本体前面には複数のカメラが搭載されている。そのうち2つは正面の映像を捉え、ヘッドセットの中に現実世界の映像を映し出すためのもの。いわゆるビデオシースルー型のMixed Realityを実現のためのものである。ここは、Vision ProやMeta Quest 3といったライバルと同様だ。
そのほかに、ポジショントラッキングと手やコントローラーの認識に使うイメージセンサーが内蔵されていて、手を認識して操作する。ここもVision Proにかなり近い。
XR機器では、両眼の瞳孔の間隔(IPD)が重要になる。安価な製品では手動でレンズを動かしてIPDを合わせるのが一般的だが、Project Moohanでは、ホームボタンを長押しすると自動的に調整される。このUIも体験も、ほぼVision Proと同じものだった。
視力補正は内部にインサートレンズを入れて対応する構造。こちらも他のXR機器と同様だ。メガネをかけて代用するのは難しいのではないか、という印象を受けたが、保証の限りではない。
ビデオシースルー方式のMixed Reality対応なので、周囲の映像はそのまま見える。さらにUIやアプリのウインドウが重なり、現実空間とミックスで表示される。解像感は、Meta Questよりはかなり高く、Vision Proにより近い。
他のプラットフォームとの大きな違いは、YouTubeやGoogleマップ、Gmailといった、Googleのアプリが最適化された形で搭載されていることだ。
YouTubeで映像を見たが、画質はかなり良い。インターフェースはXRに最適化されたもので、立体的に広がるような形だ。2D動画の「自動3D化」機能を備えていて、どんなYouTube動画でも、AIで奥行きを推定、立体映像にしてしまう。数本の映像を見ただけだが、かなり品質は良い。
Googleマップは、空中に地図のウインドウを配置するだけでなく、3Dの地形を床に敷き、その上に立って周囲を眺められるようにもなっていた。
ある時期からGoogleは、MetaやアップルのXR系プラットフォームにアプリ提供を手控えるようになった(ブラウザからは使える)が、それはAndroid XRと関係していそうだ。
画質もかなり良く、数百ドルで買える製品にはなりそうにない。Vision Proのライバル、と言えるハイエンドな価格になりそうな印象を受けている。
では、他のAndroid XR機器はどうなるのか? その点は次回のウェブ版で解説する。
週刊GetNavi、バックナンバーはこちら