全1913文字
PR

 最近、米アマゾン・ドット・コム(Amazon.com)の「Alexa(アレクサ)」や米グーグル(Google)の「GoogleAssistant(グーグルアシスタント)」といった音声対話エージェントに対応した機器が増えている。しかし、音声での機器操作が普及したかと言えば、そこまでは至っていない。現時点では、例えばテレビの場合、電源のオン・オフやチャンネルの切り替えなど初歩的な操作にとどまっている。さらに発話の冒頭に「Alexa」など特定の起動語を発する必要があり、多くの日本人にとって不自然なのがその理由だ。人が機械の仕様に合わせている印象が拭えない。

 「今晩、私の好きなアイドルが出るからよろしく!」─。三菱電機は、家族に番組の録画を依頼する時のような曖昧な命令を理解する、AI(人工知能)を用いた機器向けのUI(ユーザーインターフェース)を開発した(図1)。音声命令をエッジ側の機器内で処理することで、1秒以内に応答する。今後、テレビやカーナビなどへの技術適用を検証し、2022年以降に自社製品での商用化を目指す。

図1 機器に搭載されたAIが人の曖昧な命令を理解
図1 機器に搭載されたAIが人の曖昧な命令を理解
テレビに搭載した時の利用イメージ。これまでの音声UIでは、機器が人の曖昧な命令を理解できなかったり、機器が理解できる命令を人が覚えて話す必要があったりした。開発したAIは、人の曖昧な命令でも意図をくんで不足情報を推論する。(図:三菱電機)
[画像のクリックで拡大表示]