全3906文字
PR

 ルネサス エレクトロニクスは、同社独自のハードウエアアクセラレーター「DRP(Dynamically Reconfigurable Processor)」を活用することで、MPU(マイクロプロセッサー)のAI(人工知能)処理の高速化を図っている(図1)。現在、同社は、CPUコア上のソフトウエアに比べて1000倍速く推論できるMPUの開発を進めており、2023年中に市場投入の予定である。高速化に加えて、AIの現場への普及を妨げている2つの課題の解決を狙う新機能の追加を念頭にして、開発を進めている。

図1 開発中のMPU(マイクロプロセッサー)を載せた評価ボード(左)と狙うアプリケーション(右)
図1 開発中のMPU(マイクロプロセッサー)を載せた評価ボード(左)と狙うアプリケーション(右)
MPUは、「DRP-AI」と呼ぶビジョン処理/AI処理向けに強化したアクセラレーター回路を集積している(画像:ルネサス エレクトロニクス)
[画像のクリックで拡大表示]

 DRPは電源投入後の動作中にダイナミックに(クロックごとに)回路構造を再定義可能なため、小面積のチップで様々な処理の高速化が図れる。ルネサスはDRPを混載するMPU「RZ/A2M」を2018年10月に発売した。このMPUはCPUコアで動作するソフトウエアに比べて10倍速く推論できる。その後、同社はDRPをビジョン処理/AI処理向けに強化した「DRP-AI」を開発した(図2)。このDRP-AIを混載するMPU「RZ/V2M」は2020年6月に発表されている。DRP-AIを混載したMPUは、CPUコアで動作するソフトウエアに比べて100倍速く推論できる。

図2 DRP-AIは2つの部分、DRPとAI-MACから成る
図2 DRP-AIは2つの部分、DRPとAI-MACから成る
DRPは、電源投入後の動作中にダイナミックに(クロックごとに)回路構造を再定義可能な回路(プロセッサー)である。推論ではニューラルネットワークのPooling層などを扱う。AI-MACは積和演算を担い、推論ではConvolution層を担当する。DRPとAI-MACは密結合して連係動作する。ルネサスによれば、他社のAIアクセラレーターはAI-MACに相当する回路しか含まない場合がほとんどで、Pooling層などはCPUコアが処理しているという。このため、電力効率が低い。一方DRP-AIはCPUコアなしで全層を処理できるため、電力効率が高いとする(画像:ルネサス エレクトロニクス)
[画像のクリックで拡大表示]

 現在、同社は、DRP-AIの改良を進めており、その改良したDRP-AIの混載と新規開発したソフトウエアを利用することにより、CPUコアで動作するソフトウエアに比べて1000倍速く推論できるMPUを開発中である注1)。今回、開発の狙いや技術的方策について、ルネサスの3人のエンジニアに話を聞いた。同社エンタープライズ・インフラ・ソリューション事業部の野瀬浩一氏(シニアプリンシパルエンジニア)、馬場光男氏(シニアダイレクター)、戸井崇雄氏(シニアマネージャー)である。開発に当たっては、速度を高めることに加えて、AIの現場への普及を妨げている2つの課題を解決することを狙った。

注1)2023年末までに「RZ/Vシリーズ」の新製品として市場投入の予定である。