カメラの映像だけを使って人間のような触覚を実現するロボットハンドが登場した(図1)。ロボットベンチャーのFingerVision(東京・杉並)が開発を進めている触覚センシング機能を持つハンドだ。同社が得意とする画像処理技術を使ったもので、多関節ロボットと組み合わせれば、軟らかい食品を潰すことなくつかめるシステムの実現が期待できる。
ロボットハンドの内側からカメラ撮影
大まかな仕組みはこうだ。ロボットハンドの内部にはカメラが組み込んであり、ワーク(把持対象の物体)との接触面を内側から撮影できるようになっている。ロボットハンドが2本のトング形状であれば、その両方に1台ずつカメラを内蔵する。カメラの撮影方向は、ワークを挟み込むように内側に向いている。
ワークとの接触面は透明なシリコンゴムとアクリル樹脂から成る。ロボットハンドを閉じてワークに触れると、接触面がワークと接している様子がカメラに映る。この映像を後述の画像処理技術で分析することで、接触面にかかる力の方向やワークの滑りを検出する(図2)。
ロボットでなじみのある触覚センサーとしては、抵抗膜式や静電容量方式がある。こうした従来の方式では、広い面積の接触を一度に検出しようとすると、ワークとの接触面に多数のセンサー素子を並べなくてはならない。しかも、センサー素子の数が増えると配線も増えるため、センサー自体の構造が複雑になりがちで故障のリスクも高まる。
その点、同社が考案した触覚センサーは、ワークとの接触面に透明で安価な素材を使い、小型カメラで撮影するだけなので、ハードウエアを単純化できる。仮に破損したとしても気軽に部品を交換できる。同社COO(最高執行責任者)兼CDO(最高開発責任者)の山浦博志氏は「従来よりも高い耐久性と経済性を両立した新しい触覚センサーだ」と胸を張る。
メリットはそれだけではない。触覚センサーに用いるカメラを通常の撮影に使えば、把持動作の準備作業として、製品の種類や形状を見分けるといった用途にも応用できるという。