PR

ロボがつかんだ感覚を操作者が感じる

 General Purpose Armは力触覚アクチュエーター技術を使い、ロボットの遠隔操作や作業の自動化を実現したもの。人が操作する「マスターシステム」と、実際に作業する自走式ロボット「スレーブシステム」から成る。マスターシステムは、親指、人差し指、中指、手首、ひじ、肩のそれぞれの動きを伝送する左右のアームと、ロボットを移動させるための筋収縮測定システム、そしてHMD(ヘッドマウントディスプレー)で構成する。

 操作者は、椅子に座って左右のアームを両腕に取り付け、筋収縮測定システムの上に足を乗せてロボットを制御する。ロボットの頭部にはステレオカメラが搭載され、操作者のHMDに画像を送る。作業者が首を傾けるとロボットの頭部も同様に動く。操作者の腕や指の動きは力触覚データとしてロボット側に送られ、動きを制御する。同時にロボットのハンドやアームがモノに触れた時の反作用が力触覚データとして操作者にフィードバックされる。これによりつかんだモノの感触がリアルに伝わる。

 筋収縮測定システムは、アームと同様に力触覚技術を搭載した体重計のような台で、操作者が足に力を込める方向でロボットの移動を制御する。右足と左足それぞれの前・後ろにモーターを内蔵し、両足が「前」だと前進、「後ろ」だと後退、左右が逆だと回転する仕組みだ。

図2 慶応義塾大学の大西公平教授
図2 慶応義塾大学の大西公平教授
力触覚技術の開発者で理工学部教授とハプティクス研究センター センター長を兼ねる。
[画像のクリックで拡大表示]

 モノをつかんだり持ち上げて移動したりする動作はシステムに1度教示するだけで自動化が可能になる。モノの大きさや位置が多少変わっても対応は可能という。「例えば人間の場合、机の上にあるマウスの位置が分かっていれば、目を閉じている間にその位置が少し変わっても持てる。それと同じ」(開発を主導した慶応義塾大学 理工学部 システムデザイン工学科 野崎貴裕助教)。

 ロボットハンドの触感を伝送する技術や、コンピューターシミュレーション上の物体の触り心地を伝える技術は他にもあるが、慶大は自らの技術を「世界最高水準」と自負する。力触覚技術を開発した同大理工学部の大西公平教授(図2)によれば、ロボットの動作を厳密に制御する「位置制御」と、接触する物体の剛性を正しく伝える「力制御」は相反する制御であるため、触覚伝送の性能と動作の安定性の両立が難しいという。そこで位置制御と動作制御を1万Hzと高速に切り替えて課題を解消した。