全2545文字
PR

 ホログラフィックディスプレーは、物体の映像を光の強弱や色だけでなく、位相情報、つまり光の波の振動のタイミングも「ホログラム」として記録し、それを再生する「ホログラフィー」技術を用いて、より自然な立体映像を表示できるディスプレーである。既存のディスプレーの多くは、位相情報は用いていない。これまでの3次元(3D)ディスプレーは、わずかに異なる角度から撮影した映像を左右の目に別々に見せて、立体だと錯覚させる。最近は、ディスプレーが4Kや8Kなど非常に高解像度になったことで、かつての3D映像の粗さが目立たなくなり、かなり自然な3D映像が見られるようになってきた。しかし、原理的な課題は未解決のままだ。この3D映像を見るとき、目のフォーカスはディスプレー面に合う一方で、両目は飛び出してくる立体映像に向いていることで脳が混乱する「輻輳(ふくそう)と調節の不一致(Vergence and Accommodation Conflict:VAC)問題」である。VR(仮想現実)ゴーグルやAR(拡張現実)グラスでも課題は解決せず、めまいや頭痛などの悪影響につながる。

[画像のクリックで拡大表示]

 こうした3D映像には人間だけでなく、カメラのオートフォーカス機能も混乱する。単眼のカメラでその3D映像を撮影すると、オートフォーカス機能がうまく機能せずピントが合わないことが多い。

輻輳と調節問題を解決

 対して、ホログラフィックディスプレーであれば輻輳と調節問題は起こらない。ディスプレーから出てくる光の情報が、解像度の問題を別にすると、実際の物体から出てくる光のそれとほぼ同じだからだ。その場合、目のフォーカスは物理的なディスプレーには合わず、3D映像だけに合う。ディスプレーから映像が飛び出すのではなく、人物や物体がまさにそこにあるように見えるのである。しかも、ホログラフィック立体映像は片目でも映像をある程度立体的に見ることができる。カメラでその映像を撮影すれば、オートフォーカス機能で映像にピントが合う。

コンピューターが撮影や再生問題を解決

 ホログラフィーのアイデアは古くからあり、ホログラフィック立体映像が登場するSF映画も以前からある。にもかかわらず、カラー映像や動画の実用化はなかなか進まなかった。理由は大きく2つある。1つは、光の位相をホログラムとして記録する記録媒体が技術的に未熟だったことだ。当初はレコードのようなアナログ媒体しかなかった。これでは、静止画しか再生できない。

 その後、SLM(Spatial Light Modulator)とも呼ばれるデジタルの空間光変調器をホログラムの記録媒体として使うことで動画再生が可能になったが、今度は記録容量が小さかったり、応答が遅かったりで動きの遅い動画を単色で再生するのがやっとだった。

 実用化が難しかったもう1つの理由は、撮影が容易ではなかったことだ。これまでホログラムの作成は、暗室で撮影対象にレーザー光を照射し、さらに特殊な光学装置を介して別のレーザー光(参照光)との干渉縞を作って記録する必要があった。日光や一般的な照明は光の位相がそろっておらず、雑音になってしまうのである。これでは当然ながら、日常的な映像をホログラム、そしてホログラフィック立体映像にすることは不可能だ。

既存のスマホで撮影、送信が可能に

 この課題を最初に乗り越えたのが、英VividQである。同社は2022年5月のディスプレー技術の国際学会「Display Week 2022」で、「SF映画のホログラフィック映像と通信を世界で初めて実現可能にした」と論文発表した。同社は、暗室での撮影の代わりに、米Apple(アップル)のスマートフォン「iPhone 12 Pro/Pro MAX」などにあるカメラ機能と深度測定機能で得られた距離情報付きの動画を基に、クラウドサーバー上で計算してホログラムを作成する。これなら、暗室もレーザー光も複雑な光学装置も要らない。コロンブスの卵のようなちょっとした発想の転換だが、実用化にとっては大きなブレークスルーになった。

 この場合、元は実映像でも、再生される映像はすべてコンピューターグラフィックス(CG)となる。最近の「自由視点映像」と呼ばれる任意の角度からの映像を再現する技術やVRで見る映像の多くが実質的にCGベースだが、解像度が高ければ違和感は小さい。

 さらにVividQは、作成したホログラムデータの送信技術も開発した。ホログラムの記録や送信に専用の記録媒体は不要で、一般的な記録媒体にデジタルデータとして伝送、記録すればよい。映像の再生には、現時点ではプロジェクターで一般的に使われている約2K×2Kの「DMD(Digital Mirror Device)」と呼ばれるSLMを利用する。

 映像の再生は比較的容易で、このDMDにホログラムを表示してRGBの3色のレーザー光を照射すればよい。これによってホログラフィック立体映像のフルカラー動画も再生可能になった。VividQが試作した大型パソコンサイズのホログラフィック映像表示装置では、1秒間に60コマの滑らかな動画を表示できる。ただし、装置は大きいが映像の表示部は直径2cm以下と小さい。

VividQが試作したホログラフィックディスプレーで表示された動画の例
[画像のクリックで拡大表示]
VividQが試作したホログラフィックディスプレーで表示された動画の例
(写真:日経クロステック)

 VividQは近い将来に、装置全体をARグラスに載せられるサイズに小型化する計画。2023年1月には、眼鏡のレンズに光を通す導波路作製技術に優れたフィンランドDispelixと提携した。ただし、VividQ自身が量産に乗り出すことはなく、提携先メーカーに開発キットを提供していく予定だ。

VividQが想定するARグラスでのホログラフィック立体映像のイメージ
[画像のクリックで拡大表示]
VividQが想定するARグラスでのホログラフィック立体映像のイメージ
(出所:VividQ)

KDDI総研などは大型化に挑戦

 VividQの他には、KDDI総合研究所と関西大学 システム理工学部 教授の松島恭治氏の研究室もCGベースのホログラムを用いたホログラフィックディスプレーを共同で開発中だ。2022年5月には、18cm×18cmの大型ディスプレーでカラーのアニメーションを表示することに成功したと発表した。VividQが目指すARグラスと異なり、SLMも大型かつ高精細のものが必要になるため、VividQが実現しようとしているリアルタイムの立体映像通信は、KDDI総研の技術ではまだ先になるとする。

KDDI総合研究所などが開発中のホログラフィックディスプレー
[画像のクリックで拡大表示]
KDDI総合研究所などが開発中のホログラフィックディスプレー
(写真:日経クロステック)