全3603文字
PR

 ルネサス エレクトロニクスは、2021年までにマイクロプロセッサー(MPU)のAI推論処理を1000倍速く実行可能にする計画を18年2月に発表した*1。その約半年後の18年10月には、推論処理を10倍高速化したというMPU「RZ/A2M」のサンプル出荷を始めた*2。このMPUには同社独自のアクセラレーター「DRP:Dynamically Reconfigurable Processor」を集積しており、このアクセラレーターがCPUコアでのソフトウエア処理に比べて10倍速い推論を実行可能にしたとする。

産業用マイクロプロセッサー(MPU)の推論処理1000倍化計画
産業用マイクロプロセッサー(MPU)の推論処理1000倍化計画
ルネサスへの取材を基に日経エレクトロニクスが作成
[画像のクリックで拡大表示]

 そして20年6月には、推論処理速度をさらに10倍、すなわち100倍に高めたというMPU「RZ/V2M」を発表した*3。RZ/V2MにはDRPを強化した独自アクセラレーターの「DRP-AI」を集積する。DRPに、並列処理可能な積和演算回路「AI-MAC(Multiply Accumulation)」を追加したのがDRP-AIである。同社によれば、DRPによる10倍の高速化、AI-MACによる10倍の高速化を合わせて、DRP-AIでは100倍の高速化を達成するという。

 現在、RZ/V2Mはサンプル出荷中で、量産は20年12月に開始の予定である。ルネサスは、RZ/V2Mのプロモーションを展開しており、その一環として、競合のGPUメーカー(ルネサスは明言しないが、米NVIDIAとみて間違いないだろう)との実力を比較するデモンストレーションを見せている。そのデモでは、競合メーカーの組み込み向け市販GPUチップと、ルネサス独自アクセラレーターのDRP-AIのテストチップを比較する。物体認識用のDNN(Deep Neural Network)である「TinyYOLOv2」を両者に実装したところ、市販GPUチップに比べてDRP-AIの試作チップは大幅に低い消費電力で同等以上の性能(速度)を示した。

競合GPUメーカーの組み込み用市販チップと、RZ/V2Mの推論アクセラレーター「DRP-AI」の処理を比較
競合GPUメーカーの組み込み用市販チップと、RZ/V2Mの推論アクセラレーター「DRP-AI」の処理を比較
物体認識用のDNN(Deep Neural Network)である「TinyYOLOv2」を両者に実装して稼働させた。中央が15分後の発熱の様子。市販GPUチップの79度に対して、DRP-AIのテストチップは40.9度にとどまる。右のグラフは、性能比較の1つで、物体認識できる動画のフレームレートの最大値を比べた。市販GPUチップは28フレーム/秒なのに対して、DRP-AIのテストチップは36フレーム/秒と上回った。
[画像のクリックで拡大表示]