Vol.90-3
前回解説したように、現在のスマホのなかでもハイエンドな製品には「ToFセンサー」が搭載されるようになっている。これは光によって対象との距離を測るもので、3月に発売された「iPad Pro」が装備している「LiDAR」と同じ機能を持つものである。
しかし、他のスマホに搭載されるToFセンサーとiPad ProのLiDARでは、役割に大きな違いがある。
両者は、センサーの利用目的が異なるのだ。
他のスマホでは、ToFセンサーをカメラの精度アップに使っている。しかし、iPad ProのLiDARは、カメラ機能には使われていない。これは、将来はともかく、いまは使っていないということだ。ではiPad ProはLiDARをなんのために使っているのか? それはARのためだ。
ARでは、周囲にどんなものがあってどういう高さ・奥行きなのかを正確に把握する必要がある。これまでは、机や床のような水平面、壁のような垂直面を画像から認識していたのだが、家具や階段のような形の認識や、人間やペットがどこにいるのか、といった複雑な立体構造の把握は難しかった。しかし、今後、CGでできたペットをソファの上で遊ばせたり、階段の段差に沿って物を置いたりするには、可能な限り正確な空間把握が必要になってくる。
そのためにiPad Proに搭載されたのがLiDAR、というかToFセンサーだ。アップルは「LiDAR」と呼んでいるが、やっていることの本質は他のToFセンサーと変わらない。
ただ構造は、他のToFセンサーとは違う。立体構造を把握するために特別な機構を組み合わせている。それは、「ドットプロジェクターを使う」ということだ。目には見えないが、iPad Proは周囲に「等間隔な点の光を飛ばす」仕組みになっている。ToFセンサーはそれを目安に立体構造を把握する。単純に光を受け取るよりは正確に、素早く、簡単に立体構造の認識ができる。ソフト的には、それらの情報をさらに処理し、「ここが壁」「ここが床」「ここが突起」といった具合に分けて処理されるようになっているという。
実は、この「ドットプロジェクターを組み合わせて立体構造を把握する」という仕組みは、もうずっと前からアップルが使っているものでもある。それは、顔認識に使う「Face ID」だ。あれもドットプロジェクターで顔に「見えない等間隔の点」を当て、それをセンサーが認識して、顔の凹凸を把握している。他のスマホが「カメラによる画像認識」を使っていることとは好対照だ。Apple純正のAR開発ツールであるARKitでは、Face IDも使えるようになっており、表情を認識して顔をCGに置き換える、といった機能がある。そうした仕組みをより一般的なARへと拡張したのが、iPad Proに搭載されているLiDARの正体なのである。
では、それはどのように使われるのか? そのあたりは次回のウェブ版で解説する。
週刊GetNavi、バックナンバーはこちら!