デジタル
2020/5/8 7:00

【西田宗千佳連載】iPad Proの「LiDAR」は「Face ID」から進化したもの

Vol.90-3

前回解説したように、現在のスマホのなかでもハイエンドな製品には「ToFセンサー」が搭載されるようになっている。これは光によって対象との距離を測るもので、3月に発売された「iPad Pro」が装備している「LiDAR」と同じ機能を持つものである。

 

しかし、他のスマホに搭載されるToFセンサーとiPad ProのLiDARでは、役割に大きな違いがある。

 

両者は、センサーの利用目的が異なるのだ。

 

他のスマホでは、ToFセンサーをカメラの精度アップに使っている。しかし、iPad ProのLiDARは、カメラ機能には使われていない。これは、将来はともかく、いまは使っていないということだ。ではiPad ProはLiDARをなんのために使っているのか? それはARのためだ。

 

ARでは、周囲にどんなものがあってどういう高さ・奥行きなのかを正確に把握する必要がある。これまでは、机や床のような水平面、壁のような垂直面を画像から認識していたのだが、家具や階段のような形の認識や、人間やペットがどこにいるのか、といった複雑な立体構造の把握は難しかった。しかし、今後、CGでできたペットをソファの上で遊ばせたり、階段の段差に沿って物を置いたりするには、可能な限り正確な空間把握が必要になってくる。

 

そのためにiPad Proに搭載されたのがLiDAR、というかToFセンサーだ。アップルは「LiDAR」と呼んでいるが、やっていることの本質は他のToFセンサーと変わらない。

 

Apple iPad Pro 9万3280円(11インチモデル)~

 

ただ構造は、他のToFセンサーとは違う。立体構造を把握するために特別な機構を組み合わせている。それは、「ドットプロジェクターを使う」ということだ。目には見えないが、iPad Proは周囲に「等間隔な点の光を飛ばす」仕組みになっている。ToFセンサーはそれを目安に立体構造を把握する。単純に光を受け取るよりは正確に、素早く、簡単に立体構造の認識ができる。ソフト的には、それらの情報をさらに処理し、「ここが壁」「ここが床」「ここが突起」といった具合に分けて処理されるようになっているという。

 

実は、この「ドットプロジェクターを組み合わせて立体構造を把握する」という仕組みは、もうずっと前からアップルが使っているものでもある。それは、顔認識に使う「Face ID」だ。あれもドットプロジェクターで顔に「見えない等間隔の点」を当て、それをセンサーが認識して、顔の凹凸を把握している。他のスマホが「カメラによる画像認識」を使っていることとは好対照だ。Apple純正のAR開発ツールであるARKitでは、Face IDも使えるようになっており、表情を認識して顔をCGに置き換える、といった機能がある。そうした仕組みをより一般的なARへと拡張したのが、iPad Proに搭載されているLiDARの正体なのである。

 

では、それはどのように使われるのか? そのあたりは次回のウェブ版で解説する。

 

 

週刊GetNavi、バックナンバーはこちら