2020年3月に発売された新型「iPad Pro」。目玉となっているのが、背面カメラに搭載された「LiDARスキャナー」だ。日経エレクトロニクスは技術者の協力をもとに、実機を分解・分析した。LiDARスキャナーはレーザー光のパルスが往復する時間を計測するdToF(Direct Time of Flight)方式を採用し、コンパクトに実現されていた。
米Apple(アップル)は、2020年3月末に発売した新型「iPad Pro」(2020年版)に“LiDARスキャナー”を搭載した。これは周囲の3次元(3D)データを取得できる深度センサーである。今回、このLiDARの構造を解明することを目的に分解・分析を行った。
新型iPad ProのLiDARスキャナーは背面カメラ部分に搭載されている。背面カメラ部にはiPhone 11 Proが備える3眼カメラと同じ形状のモジュールがあり、このうち1眼がLiDARモジュールである。残る2つは、4K映像を撮影できる1200万画素の広角カメラと、1000万画素で視野角125度の超広角カメラである(図1)。
本モジュールを含む3眼カメラ部のサイズと形状は、iPhone 11 Proで採用された3眼カメラのそれと、完全に一致する。つまり、本LiDARモジュールは今後のiPhoneシリーズに、標準のセンサーとして搭載されていく可能性が高い。なお、筐体(きょうたい)が同じ形状である、2018年11月発売の前製品「iPad Pro(2018年版)」の背面では、背面カメラは1200万画素の広角カメラ1つのみだった。
Appleによれば、新型iPad Proが搭載したLiDARスキャナーは、最大5m先の対象物までの距離を計測でき、屋内と屋外の両方で利用可能とする。距離計測には、赤外光を照射し、反射光が戻るまで時間を利用して算出する「ToF(Time of Flight)」を用いる。ToFのうち、数mを高い分解能で測距できる「ダイレクト(dToF)方式」を採用したという。
目的はズバリAR
新型iPad ProにLiDARスキャナーを搭載したのは、AR(Augmented Reality)コンテンツでの活用が狙いである。これまでのARでは、カメラとモーションセンサーからのデータを組み合わせることで周囲の状況を把握する手法が使われてきた。これにLiDARスキャナーの測定結果を加えることで、より自然で位置精度の高いAR体験を提供できるとする。
Appleはこれまでも、AR用ライブラリー「ARKit」を開発者向けに提供してきたが、空間の把握は画像認識によるものだった。空間的に広がる床や壁の位置は認識できるものの、床の上に置かれた物体などの位置を正確に認識することは苦手だった。
画像認識による空間把握を使ったARでは例えば、床の上に置かれた椅子の後ろにCGの仮想オブジェクトを置いたつもりでも、椅子の前にあるように表示され違和感が生じる場合が多かった。
より自然なARを実現するには、このような現実空間の物体と仮想オブジェクトの前後関係を把握する「オクルージョン」機能が重要になる。先に述べた椅子の例であれば、CGの物体がきちんと椅子の後ろにあるかのように、CGから椅子の部分を取り除いて表示する機能である。
画像認識のみでは現実の物体との距離を計測する精度に限界があるが、LiDARスキャナーを用いれば物体との距離をより正確に検出できるので、前後関係の把握精度を向上できるようになる(図2)。