PR

 ソシオネクストは、学習済みDNN(Depp Neural Network)を使うエッジでの推論処理を高速化することを狙ったIPコア「NNA :Neural Network Accelerator」を開発した(ニュースリリース:PDF)。このIPコアをVPU(Vision Processor Unit)に搭載することで、搭載しない場合に比べて画像認識の処理性能を約 100 倍に向上できるという。

従来型(左) および 今回のIPコア「NNA」 集積した (右) VPU のブロック図。ソシオネクストのイメージ
従来型(左) および 今回のIPコア「NNA」 集積した (右) VPU のブロック図。ソシオネクストのイメージ
[画像のクリックで拡大表示]

 今回のIPコアは、OpenVX対応のVPU「SC1810シリーズ」(関連記事)を拡張する目的で開発したもので、⾞載向けやデジタルサイネージをはじめとするさまざまなアプリケーションにおいて、DNNを利用したコンピュータービジョン処理を⾼速かつ低消費電⼒で実現するという。同社独自の量子化(低ビット化)技術を使うことで、少ない演算資源で大量の計算処理が実⾏でき、かつデータ量を大幅に削減するため、システム・メモリー・バンド幅を抑えることができるという。さらに、新しく開発した⾼効率なデータ供給を⾏うオンチップメモリー回路技術により、演算資源を⾼い稼働率で動作させることで、非常に⼩型ながら⾼い性能を達成するとしている。

 2018年第 3 四半期にこのIPコアを FPGAに搭載したソフトウエア開発キット (SDK) の提供を開始する予定である。DNNのフレームワークはまずTensorFlow に対応する。量子化技術に対応した専用ライブラリーや学習済みモデルから推論処理へのデータ変換ツールを提供する予定。このSDKを用いることで、DNNの量子化に必要な専門的な知識がなくても、コンパクトなモデルを開発できるという。今後は、さまざまなDNNフレームワークをサポートする予定。また、ソシオネクストは今回のIPコア を集積した SoC製品の市場投入を計画している。