「週刊GetNavi」Vol.57-3
ARは、現実の空間にCGを重ねる技術だ。そこでリアリティを向上させるには、現実の空間がどのような状態にあるか、正確に把握する能力が必要になる。
過去のARでは、単にカメラが向いている方向で位置を判断していたものが多い。そうすると、実際の風景の「手前」に必ずCGが来ることになるので、非常に不自然になりやすい。だから、位置を知るために「マーカー」を使うアプローチが有効だった。QRコードのような特殊な記号や、特定の絵などを「位置合わせの目印」にし、その記号のゆがみから「距離」「傾き」を把握し、CGの位置合わせを行っていた。
マーカー式では画像認識負荷が低く、比較的容易に実現できるのが利点なのだが、マーカーがないと表示できないということは、応用の幅が狭いということでもある。そのため、プロモーション用など、目的が決まったアプリでしか使われなかった。
だが、プロセッサー能力と画像認識技術の向上により、「マーカーレス」で位置合わせを行うことも可能になってきた。ARKitはまさにこのアプローチである。マーカーレスARは珍しいものではないのだが、精度を上げるのが難しい。カメラを動かすとCGが不自然にガクガク動いたり、床にめり込んだりする例も多い。ARKitは、iPhone・iPadがCPUとカメラ、両方で高い性能を持っていることを生かし、マーカーレスでも非常に安定性の高い位置合わせを実現していることが特徴である。
一方で限界もある。机・床などの平面だけが認識対象である、ということだ。また、白い壁に白い床のような、コントラストの低い空間は把握しにくい。それでも、床と机の高さの違いを認識するなど、かなりがんばっている……という印象だ。
この先に行くには、やはり「距離を把握する特別な機構」が必要になる。GoogleのTangoやマイクロソフトのHoloLensは、赤外線を使った距離センサーを搭載していて、それによって、平面だけでなく空間の立体的な構造まで把握できるようになってきた。これができると、「人の頭の上にキャラクターが飛び乗り、体に沿って降りてくる」といった複雑な動作も可能になる。
Googleやマイクロソフトが距離センサーを搭載したのは、一足飛びに理想的な環境を実現したかったからだろう。一方で、距離センサーを使って立体構造を取得しても、現在は解像度がさほど高くない。しかも、現状のデータ量ですら処理負荷は高く、スマホのSoCでは発熱が厳しい。
そのためマイクロソフトは、現在開発中の「次世代HoloLens」に、AI処理を高速化する専用のLSIを搭載する。その力によって、距離センサーから得たデータの処理負荷を減らし、さらに精度の高いARを実現しようとしているのである。
では、今後AppleはARをどのように使っていこうとしているのか? その辺は次回のVol.57-4で解説する。
週刊GetNavi、バックナンバーはこちら!