PR
図1 カメラで人の身体の向きや身長、カメラからの距離を推定するデモ実証。画像の処理には、米NVIDIA社の車載用途のプロセッサー「Tegra K1」を使う。
図1 カメラで人の身体の向きや身長、カメラからの距離を推定するデモ実証。画像の処理には、米NVIDIA社の車載用途のプロセッサー「Tegra K1」を使う。
[画像のクリックで拡大表示]
図2 リアルタイムでの画像認識を実現する手法(下段右側)。
図2 リアルタイムでの画像認識を実現する手法(下段右側)。
[画像のクリックで拡大表示]

 デンソーグループが、単眼カメラを使ってリアルタイムに歩行者の体の向きや身長、クルマとの距離といった複数の要素を高速に認識する技術を開発した(図1、2)。車載機を模したデモ環境で処理時間を56msまで速められることを確認している。クルマのADAS(先進運転支援システム)に適用していく考えだ。

 複数の特徴を認識する場合、処理するデータ量が膨大になるため、従来の手法ではリアルタイムでの処理が難しかった。今回、画像データの処理方法を工夫することで計算時間を短縮した。同時に、計算量も1/10程度に低減しており、計算能力が限られる車載半導体でも利用できるようにした。

DNNを工夫しADASの水準満たす

 この技術を開発したのは、デンソー子会社のデンソーアイティーラボラトリである。画像認識のアルゴリズムにディープラーニング(深層学習)の1種であるDNN(Deep Neural Network)を用いる。

 従来の画像処理では、輝度勾配ヒストグラム(HOG)と線形サポート・ベクター・マシン(SVM)を組み合わせたアルゴリズムを適用していたが、画像中に人がいるか否かという単純な判断しかできなかった。複数の特徴量を並行して求められないため、どの方向を向きどのくらいの距離にいるか、といった歩行者の状態や属性までは特定できなかった。