3DCGキャラクターを動かすには、髪や体、衣装のリアルタイムレンダリングと、顔や体、指のモーションキャプチャー、音声と口の動きを同期する技術などが必要となる。グリーのスライド。
[画像のクリックで拡大表示]
第20回を迎えた国内最大級のゲーム開発者会議「コンピュータエンターテインメントデベロッパーズカンファレンス2018(CEDEC 2018)」が、2018年8月22~24日にパシフィコ横浜で開催された。VR(Virtual Reality)に関連した講演数は2017年に比べて半減したものの、3D(3次元)CGキャラクターを動かすための、モーションキャプチャー環境についての講演が目立った。
VRでキャラクターになりきる
キャラクターを使ったライブイベントや、VRでキャラクターの姿になって交流する「ソーシャルVR」が盛り上がりを見せ、消費者向けで「脱・ゲーム」が進んでいる。
これまで、AR(Augmented Reality)ライブや超歌舞伎など、キャラクターを現実のイベントに「召喚」するイベントを開催してきたドワンゴは、モーションキャプチャー環境の選定などについて講演した(図1)。モーションキャプチャー環境は大きく4つに分類され、どれも一長一短であり、状況に応じて最適な環境は異なると説明した。