全3248文字
PR
DRP(Dynamically Reconfigurable Processor)の概念
DRP(Dynamically Reconfigurable Processor)の概念
状態遷移とそれぞれの状態に対応するデータパス(回路構造)に分解し、1クロック単位に回路構造を変更できるハードウエアで動作させる。(図:ルネサス エレクトロニクスの資料)
[画像のクリックで拡大表示]

 ルネサス エレクトロニクスは、2021年までにマイクロプロセッサー(MPU)のAI推論処理を1000倍速く実行可能にする計画を18年2月に発表した(図1)。その約半年後の18年10月には、推論処理を10倍高速化したというMPU「RZ/A2M」のサンプル出荷を始めた。このMPUには同社独自のアクセラレーター「DRP:Dynamically Reconfigurable Processor」を集積しており、このアクセラレーターがCPUコアでのソフトウエア処理に比べて10倍速い推論を実行可能にしたとする。

図1 産業用マイクロプロセッサー(MPU)の推論処理1000倍化計画
図1 産業用マイクロプロセッサー(MPU)の推論処理1000倍化計画
エッジでのAI活用に向けて3段階で処理性能を引き上げる。(ルネサスへの取材を基に日経エレクトロニクスが作成、初出:本誌2018年3月号)
[画像のクリックで拡大表示]

 そして20年6月には、推論処理速度をさらに10倍、すなわち100倍に高めたというMPU「RZ/V2M」を発表した。RZ/V2MにはDRPを強化した独自アクセラレーターの「DRP-AI」を集積する。DRPに、並列処理可能な積和演算回路「AI-MAC(Multiply Accumulation)」を追加したのがDRP-AIである。同社によれば、DRPによる10倍の高速化、AI-MACによる10倍の高速化を合わせて、DRP-AIでは100倍の高速化を達成するという。

 現在、RZ/V2Mはサンプル出荷中で、量産は20年12月に開始の予定である。ルネサスは、RZ/V2Mのプロモーションを展開しており、その一環として、競合のGPUメーカー注1)との実力を比較するデモンストレーションを見せている。そのデモでは、競合メーカーの組み込み向け市販GPUチップと、ルネサス独自アクセラレーターのDRP-AIのテストチップを比較する。物体認識用のDNN(Deep Neural Network)である「TinyYOLOv2」を両者に実装したところ、市販GPUチップに比べてDRP-AIの試作チップは大幅に低い消費電力で同等以上の性能(速度)を示した(図2)。

注1)ルネサスは明言しないが、米NVIDIAとみて間違いないだろう。
図2 競合GPUメーカーの組み込み用市販チップと、RZ/V2Mの推論アクセラレーター「DRP-AI」の処理を比較
図2 競合GPUメーカーの組み込み用市販チップと、RZ/V2Mの推論アクセラレーター「DRP-AI」の処理を比較
物体認識用のDNN(Deep Neural Network)である「TinyYOLOv2」を両者に実装して稼働させた。中央が15分後の発熱の様子。市販GPUチップの79℃に対して、DRP-AIのテストチップは40.9℃にとどまる。右のグラフは、性能比較の1つで、物体認識できる動画のフレームレートの最大値を比べた。市販GPUチップは28フレーム/秒なのに対して、DRP-AIのテストチップは36フレーム/秒と上回った。(図:ルネサス エレクトロニクス)
[画像のクリックで拡大表示]