AR(Augmented Reality)分野に注力する米Apple(アップル)が、ARアプリ開発のしきいをグッと下げる。同社は、2021年6月7日(米国時間)からオンライン開催した年次開発者会議「WWDC21」で、ARアプリなどで利用する3次元(3D)モデルを簡単に制作できるAPI(アプリケーション・プログラミング・インタフェース)「Object Capture」を発表した。ARアプリ開発における大きな課題は、3Dモデルの制作に時間やコストがかかることだった。Object Captureを利用すれば、iPhoneなどを使って数分で3Dモデルを作成できるようになる。
アップルは、ARアプリ向けに写実的なレンダリングや物理シミュレーションなどができるフレームワーク「RealityKit」の最新版に、Object Captureという機能を追加する。Object Captureを利用すれば、さまざまな方向から撮影した物体の2次元(2D)画像データを基に3Dモデルに変換できる。いわゆる「フォトグラメトリー」技術を利用する。
iPad ProやiPhone 12 Proシリーズに搭載されている「LiDARスキャナー」で取得した3Dデータを利用しなくても、カメラで撮影した2D画像から3Dモデルを作成できる。iPhoneやiPad、デジタルカメラ、ドローンのカメラなどで撮影した画像を利用可能だ。20~200枚ほどの2D画像を用いることで、きれいな3Dモデルを作成できるとする。作成した3Dモデルは、「obj」や「usdz」、「usda」といった汎用的な3Dデータ形式で出力できる。iPhone上やiPad上で「AR Quick Look」機能を使いAR表示させることも可能である。パソコン「Mac」向けの次期OS「macOS Monterey」でObject Captureに対応する。
Object Capture では、3Dモデルの精細度(ディテール)を、Reduced/Medium/Full/Rawという4段階で設定できる。データ量はRawが最も大きく、Reducedが最も少ない。そのため、ReducedはWebでの配布や複数の3Dモデルを一度に表示する用途などに向くという。Mediumは、アプリ内で表示する3Dモデル向きとする。ReducedとMediumはAR Quick LookでiPhoneやiPadで3Dモデルを見られるため、3Dモデルの作成から確認までを手軽に実施できる。FullやRawはゲームや映像制作のポストプロダクション工程などに向けたプロ用の3Dコンテンツ制作アプリでの利用を主に想定している。