PR

動物と会話、心通うひと時
動物語ヘッドホン(感情分析、ウエアラブル端末)

 ドラえもんのひみつ道具「動物語ヘッドホン」は装着すると動物の言葉が分かるようになる。原作にはのび太が拾ってきた犬の話を聞く様子などが描かれている。

動物語ヘッドホン
動物語ヘッドホン
(©藤子プロ・小学館)
[画像のクリックで拡大表示]

 動物の感情を理解できれば、人はもっと動物に愛着を持ちやすくなる。ペットとの生活は今以上に素晴らしいものになるだろう。駆除を伴わない鳥獣被害対策が取れるなど、野生動物にとってもメリットが生まれる。

 あらゆる動物と会話する技術の実用化は10年以上先になりそうだ。まずは動物がどんな方法で感情を表現するかを調べる必要がある。だが一部の動物は既に実用化が見えてきた。

 例えばカラスの言葉を理解したうえで、鳴き声を使ってゴミ捨て場などにカラスが集まることを防ぐ装置が「CrowController(クロウコントローラー)」だ。「警戒」や「威嚇」「求愛」「仲間の存在確認」など、カラスがコミュニケーションにおいて鳴き声を重視する習性を利用した。

[画像のクリックで拡大表示]
CrowController(下)とカラス型ロボット(上)
CrowController(下)とカラス型ロボット(上)
[画像のクリックで拡大表示]

 装置に内蔵した赤外線センサーでカラスを検知すると、カラスに危険を伝える鳴き声を流す。この鳴き声はあらかじめ録音しておいたものだ。それを聞いたカラスは危険を感じ、その場を飛び去るという仕組みだ。栃木県宇都宮市内で検証したところ、1年以上カラスを追い払うことに成功した。

 「対話を通じて鳥獣被害の軽減につなげる」と、開発に当たったCrowLabの塚原直樹社長は話す。鳴き声でカラスを任意の場所に誘導するなどより高度なコミュニケーションも試みている。意思疎通を図りやすくするためカラス型ロボットも開発した。

 動物の鳴き声は人間の言語と違って人が読める「辞書」がない。理解するにはまずデータの蓄積と意味の解釈が必要だ。

 現在はデータ収集が中心だが、AI人工知能)の活用によって研究が大きく進みそうだ。鳴き声の特徴を学習させたAIを使って効率的にデータを集めたり、専門家しか分からないような鳴き方の違いを判別したりできる可能性がある。「5年もすれば代表的なカラスの鳴き声を翻訳できるツールを実現できるだろう」(塚原社長)。

鳴き声以外で感情を理解

 鳴き声以外の情報から様々な動物の感情を理解する研究も進んでいる。

 鍵となる技術はAIとウエアラブル端末だ。動物の感情分析を手掛けるラングレスは犬の心拍の微細な変化から「ハッピー」や「ストレス」といった感情を推測して、LEDの色で表示するウエアラブル端末「INUPATHY(イヌパシー)」を2018年11月に製品化した。2019年7月には総額1億円の資金調達を実施。猫や象など犬以外の動物の感情分析にも乗り出した。

INUPATHYを装着した様子(写真:ラングレス)
INUPATHYを装着した様子(写真:ラングレス)
[画像のクリックで拡大表示]

 猫の生活を見守る技術を開発するRABOも2019年9月、猫専用の首輪型ウエアラブル端末「Catlog(キャトログ)」を発売。内蔵した3軸の加速度センサーの情報をAIで解析して、「運動」「休息」「食事」といった猫の行動をスマホで確認できるようにした。

Catlogを装着した様子(写真:RABO)
Catlogを装着した様子(写真:RABO)
[画像のクリックで拡大表示]

 猫の行動を把握する目的は「異常に早く気づくため」(RABOの伊予愉芸子社長)だ。猫は具合が悪くなったとしても見た目ではすぐに分からないことがある。Catlogでデータを収集・蓄積していくことで「留守番中の運動量が減っている」などいつもと違う点をすぐに発見できる。

 今後は「ジャンプ」や「嘔吐(おうと)」などの判別も早期に実現するとしている。僅かな行動の変化も検知して、「何だか体調が優れないよ」という猫の声なき声を拾おうとしている。

 動物と話ができるようになったら、あなたは最初にどんな言葉をかけるだろうか。動物は何と答えてくれるだろうか。「あなたと出会えて幸せだよ」。愛犬からこんな言葉が聞けたなら、これほどうれしいことはない。

好きな服を瞬時に着用
着せ替えカメラ(AR、3Dプリンター)

 就業後に会社を出たらスーツから好みのデザインのカジュアルな服にサッと着替えたい――。こんなことを思った経験はないだろうか。ドラえもんのひみつ道具で言えば「着せ替えカメラ」の世界だ。気に入ったデザイン画や写真を本体に入れて、着せたい人に向けてシャッターを切ると着せ替えできるカメラである。本物の服の着せ替えは10年以上先になりそうだが、AR拡張現実)とAI人工知能)を使った仮想空間の中なら実現しつつある。

着せ替えカメラ
着せ替えカメラ
(©藤子プロ・小学館)
[画像のクリックで拡大表示]

 代表例がITベンダーのネクストシステムが開発した「Kinesys」だ。Webカメラとモニター、着用したい服の画像を使って、画面の中で好みの服を着せ替えできるシステムである。

 kinesysはもともとモニターに広告などを表示するサイネージシステムだが、モニターに写った人の動きに合わせて服を動かす仮想試着機能「Virtual Fashion 2.5D」を備えている。Webカメラの前に人が立つと、事前に登録した服を人物にぴったりのサイズに調整して合成する。人の動きに合わせてリアルタイムに服も動く。手を左右に広げれば、服の袖が持ち上がる。

ネクストシステムの「Virtual Fashion 2.5D」(写真提供:ネクストシステム)
ネクストシステムの「Virtual Fashion 2.5D」(写真提供:ネクストシステム)
[画像のクリックで拡大表示]

課題は「後ろ向き」

 仮想試着機能は独自に開発したAI技術「VisionPose」によって実現している。同技術は1台のWebカメラで撮影した画像から3Dの関節の座標を抽出し、それを基に人の骨格を特定する。

 動かす服のデータは事前に用意する。服の画像はスカートやパンツといったパーツごとに、どんな動きをするかのパターン情報を持つ。これを骨格データと合わせて実際に着ているように動かす。「イラストでも動かせる」(ネクストシステムの木村晋宏取締役)。

 課題は「後ろ向き」への対応だ。現時点の技術では人の前後を判別できないためだ。ただ、実現は時間の問題だ。技術的には可能という。モニターの中の人がぐるりと1回転すると服が同時に動くようになれば、仮想空間の中で着せ替えカメラの世界が実現する。

 あとは実際の服を用意できるかだが、3Dプリンターを使って服の製作を試みるベンチャーが米国で登場している。着替えの必要はあるものの、着せ替えカメラのような装置が実現する可能性がある。