現実空間の映像などに,コンピュータで作成した3次元CG画像や情報を付加して表示する「AR(augmented reality:拡張現実)」と呼ばれる技術が,改めて注目されている。
キッカケの一つになっているのが,頓知・が開発中のセカイカメラや,芸者東京エンターテインメントの「電脳フィギュアARis」といった具体的な製品が出てきたこと。前者は,iPhoneの内蔵カメラで撮影した画像の上に,ユーザーなどが入力した提供するソーシャルタグを重ねて併せて表示し,情報提供などを行うアプリケーション。一方の後者はパソコンのWebカメラで撮影した画像内に,まるでそこに立っているかに見えるメイドさんの3次元CG画像を重ね合わせて楽しむものだ。
AR自体は,コンピュータ・グラフィックス(CG)技術の一つであるVR(virtual reality:人工現実感)の応用として登場した。この分野の研究で,第一人者の一人である慶応義塾大学 大学院 メディアデザイン研究科 教授の稲見昌彦氏は,「Ivan Sutherlandが1968年に公開したヘッドマウントディスプレイ(HMD)の研究が,世界初のVRと言われる。だが実はこの研究はARの要素を含んでいた」と指摘する。そこから数えると既に40年以上の歴史がある。
そうした技術が今,改めて注目されているのは,端的に言えばARを実現するためのハードウエア的な条件が整いつつあるからだ。コンピューターにつながるカメラやグラフィックス処理能力が高い携帯端末,十分な速度の無線回線が安価で入手できるようになった。稲見氏は「条件さえ整えば,ARがいずれ実用化されるのは分かっていた。ようやく始まったなという感じ」と言う。
ARの普及で期待されるのは,ユーザー・インタフェース設計の変革である。稲見氏は,「ARは今後,ユーザー・インタフェース設計の中核となり,当たり前のものになっていく。数年後にはARという言葉をあえて使わなくなるくらい普及する」と予想する。さらに言えば現在,実用化が見えている画像を絡めた視覚的なARだけでなく,触覚や聴覚など人間の五感のすべてがARの対象になり得る。「脳に入力される情報に手を加えて,脳が感じる現実感(リアリティ)を意図的に変える――いわば『リアリティの設計』がARの根幹となる考え方」(稲見氏)だからだ。
例えば,大阪大学 大学院 情報科学研究科 バイオ情報工学専攻 准教授の安藤英由樹氏は,小型の振動素子と光学センサを指先に載せた「SmartFinger」と呼ぶ素子を試作して,触覚を用いるARの研究を行っている。紙に白黒の縞模様を描いておき,指先でなぞる。黒の部分に指が来たときに振動を加えると,まるで紙に凹凸があるかのように感じるというものだ。安藤氏は,例えばこうした錯覚を利用することで,「最低限の情報量で最大限の効果を得るような方法論を構築することが,ARの実用化では重要」と話す。
稲見氏は,今後のAR応用でカギになるのはセンサなどのデバイスの開発であると指摘する。物理的な正確さと人間が感覚的に正しいと感じることの間には差があるからだ。新たなデバイスの開発はもちろん必要だが,それだけでなく,センサなどが出力する物理的に正確な情報を,人間の感覚に合わせてどうチューニングして使えば,リアリティがより高まるかといった使いこなしのノウハウも重要になる。
既存のデバイスの改良や組み合わせでARに向けたデバイスを実現することもできそうだ。例えば,小型カメラを25個並べたカメラアレー「ProFUSION 25」を開発したビュープラス リサーチラボ ディレクター 関口大陸氏は,カメラアレーと画像処理を組み合わせて使うことで,「ソフトウエア的にピントを変えて必要なものだけ撮影したり,逆に不要なものを画像内から消すことが出来る」(関口氏)という。同社はProFUSION 25以外にも各種のカメラアレーを開発しており,ARに応用可能だとする。
日経エレクトロニクスは2009年5月27日(水)~5月28日(木)という日程で,「センサ・シンポジウム 2009」を開催する。2日目の28日に予定する「先端ユーザー・インタフェース」セッションでは,AR技術のユーザー・インタフェースへの応用をテーマに,大阪大学の安藤氏,ビュープラスの関口氏も講演する。このほか,「家庭用ロボット」と「エネルギー・ハーベスティング技術」をテーマとするセッションも用意し,2日間で13講演を予定する。センサを利用する,あるいは作る立場の技術者には,この機会にぜひ,参加を検討いただきたい。