PR
3DCGキャラクターを動かすには、髪や体、衣装のリアルタイムレンダリングと、顔や体、指のモーションキャプチャー、音声と口の動きを同期する技術などが必要となる。グリーのスライド。
3DCGキャラクターを動かすには、髪や体、衣装のリアルタイムレンダリングと、顔や体、指のモーションキャプチャー、音声と口の動きを同期する技術などが必要となる。グリーのスライド。
[画像のクリックで拡大表示]

 第20回を迎えた国内最大級のゲーム開発者会議「コンピュータエンターテインメントデベロッパーズカンファレンス2018(CEDEC 2018)」が、2018年8月22~24日にパシフィコ横浜で開催された。VR(Virtual Reality)に関連した講演数は2017年に比べて半減したものの、3D(3次元)CGキャラクターを動かすための、モーションキャプチャー環境についての講演が目立った。

VRでキャラクターになりきる

 キャラクターを使ったライブイベントや、VRでキャラクターの姿になって交流する「ソーシャルVR」が盛り上がりを見せ、消費者向けで「脱・ゲーム」が進んでいる。

 これまで、AR(Augmented Reality)ライブや超歌舞伎など、キャラクターを現実のイベントに「召喚」するイベントを開催してきたドワンゴは、モーションキャプチャー環境の選定などについて講演した(図1)。モーションキャプチャー環境は大きく4つに分類され、どれも一長一短であり、状況に応じて最適な環境は異なると説明した。

図1 現状のモーションキャプチャー環境は大きく4種類に分けられる
図1 現状のモーションキャプチャー環境は大きく4種類に分けられる
台湾HTCの「Vive」などのVR機器、中国Noitomの「Perception Neuron」などの慣性式、米マイクロソフトの「Kinect」やWebカメラなどを使った画像処理技術、米OptiTrackの「OptiTrack」などの光学式の4種類。ドワンゴのスライド。
[画像のクリックで拡大表示]