PR
全930文字

 中部大学工学部の「Machine Perception and Robotics Group(MPRG)」は、1つのDCNN(Deep Convolutional Neural Network)にIR(赤外線)画像と距離画像を入力することで、運転手の骨格検出と顔向き推定の2つのタスクを実行できる手法を開発した(図1)。MPRGは、中部大学工学部 ロボット理工学科の藤吉弘亘研究室と同部 情報工学科の山下隆義研究室からなる。開発中の手法は、自動運転時代の乗員の認識を狙ったものだ。

図1 1つのCNNで骨格検出と顔向き推定を同時に実行
図1 1つのCNNで骨格検出と顔向き推定を同時に実行
中部大学工学部の「Machine Perception and Robotics Group(MPRG)」は、ディープラーニング(深層学習)を適用した畳み込みニューラルネットワーク(DCNN:Deep Convolutional Neural Network)1つで運転手の骨格検出と顔向き推定を実行できる手法を開発した。同手法をGPU、あるいはCPUで実行すると、いずれの半導体でも、骨格検出と顔向き推定にそれぞれニューラルネットワークを用意する場合に比べて処理時間を約半分にできる。(図:MPRGの資料を基に本誌が作成)
[画像のクリックで拡大表示]

 自動運転で求められるのは、周辺を捉えるカメラ技術だけではない。車内カメラでも、高度な認識が必要になる。例えば「レベル3」相当の自動運転では、自動車側で自律運転ができない状況になった場合に、人手による運転に切り替える必要がある。このとき、運転手がうたた寝していたり、本を読んでいたりすると、スムーズな切り替えが難しい。そこで、運転手の状況をリアルタイムに把握する必要がある。その実現に向けた画像認識技術が、同大学の研究である。

この記事は有料会員限定です

日経クロステック有料会員になると…

専門雑誌8誌の記事が読み放題
注目テーマのデジタルムックが読める
雑誌PDFを月100pダウンロード

有料会員と登録会員の違い