全4631文字

 生活支援ロボットや「メタバース」が日常に入り込む世界が、すぐそこまで迫っている。今後はロボット掃除機に掃除を任せるだけでなく、あらゆる家事や介護などをロボットが支援するようになる。AR(Augmented Reality)グラスを通して、製品の3Dモデルを見せながらの商談も日常的になりそうだ。

 ただ、現在開発されているシステムは、用途ごとに閉じていることが課題になる。例えば、ARのシステムではヒトの目に違和感なく仮想物体を表示するため、周辺の物体位置や床面などをセンシングするが、このセンシングデータはARアプリケーションで消費されるのみ。ロボットも移動するために障害物を検知するが、このデータもロボットの移動のみに使われる。

 あらゆるセンサーからのリアルタイムデータとビル内などの3次元の空間情報を1カ所に集め、さまざまな用途で利用できるようになれば、多様なアプリケーションが生まれるのではないか。こうした発想の下、東京大学や日立製作所、竹中工務店らが共通基盤「コモングラウンド」の社会実装に挑み始めた。ゲームエンジンを基盤とし、さまざまな次世代技術領域で共通に使える“新世界”の創出を目指す(図1)。

図1 ヒトやロボット、AR/VRアバターなどが共に使える共通世界基盤「コモングラウンド」
図1 ヒトやロボット、AR/VRアバターなどが共に使える共通世界基盤「コモングラウンド」
これまで各業界や分野に閉じていた環境データを、1つの基盤に集約し、活用するオープンプラットフォームを構想する。例えば、BIM(Building Information Modeling)などの環境データは建設会社に、センシング情報はロボットやカメラの所有者に依存していた。建設関連の企業など以外がBIMを活用する場面は「ベンダーロックインの状態だった」(竹中工務店)。コモングラウンドでは、これらのデータを集約して誰でも使えるようにし、実用的なアプリ創出につなげる(出所:取材を基に日経クロステックが作製)
[画像のクリックで拡大表示]

 「確かにゲームの画面そっくりだ」。部屋に入ってまず目に入った巨大スクリーンに対して、記者は思わずそんな感想を漏らした。ここは、日立製作所 研究開発グループの一室。共通世界基盤「コモングラウンド」を実装した実験場である(図2)。

(a)部屋内のセンサーがヒトを追尾認識
(a)部屋内のセンサーがヒトを追尾認識
[画像のクリックで拡大表示]
(b)モニターに実験場のデジタルツインが映る
(b)モニターに実験場のデジタルツインが映る
[画像のクリックで拡大表示]
図2 日立製作所の「コモングラウンド」実験場
長方形の空間で、大きさは10畳程度。奥にある大型スクリーンでは、実験場の3Dモデルとヒトの位置が3D空間上に配置されている。ToF(Time of Flight)センサーでヒトの位置情報を認識し、画面上に反映させている。画像認識による姿勢推定でヒトの動きも認識できる(写真:日経クロステック)

 従来のゲームと異なる点の1つは、実世界のモノの位置と画面上の位置が緻密に対応していることだ。実世界で人物が動けば、画面上でも対応する。椅子のようなモノやロボットなどの移動体も同様である。

 「ロボットをここに呼んでみましょう」。日立製作所 デジタルプラットフォームイノベーションセンタ データマネジメント研究部 ユニットリーダの兵頭章彦氏は記者の目前でこう話すと、手を挙げた。同時に、部屋の隅にあったパーソナルモビリティーが向かってくる。

 パーソナルモビリティー製品の中には、環境を認識するセンサーや、経路を計算するコンピューターを内蔵し、自律運転ができるものもある。ただ、このデモンストレーションでは、パーソナルモビリティーの搭載センサーは使わない。

 部屋のあちこちに置かれたカメラ画像をコモングラウンドのシステムに取り込み、部屋の内部の状況をリアルタイムで把握。人物の体や手の動きから「呼ばれている」と判定するとともに、パーソナルモビリティーの動作経路を割り出し、兵頭氏のところに送り込んだのだ(図3)。

図3 空間に複数のセンサーを設置した日立製作所の実験場
図3 空間に複数のセンサーを設置した日立製作所の実験場
日立製作所の例では、ヒトが部屋に入ってくると、出入り口付近の天井に設置されたセンサーが認識。部屋の四隅にあるToFセンサーがヒトの動きを継続的に感知する。モノの位置のリアルタイムセンシングは、RFタグを貼ることで可能にしている。天井のステレオカメラがタグを画像認識する(出所:取材を基に日経クロステックが作製)
[画像のクリックで拡大表示]