全2118文字
PR

 米ザイリンクス(Xilinx)は2021年6月9日、FPGAベースのSoC(System on Chip)「Versal ACAP」の第4弾となる「Versal AI Edge」シリーズを発表した。自動運転システムやADAS(先進運転支援システム)、ロボット、ドローン、監視カメラなどの用途を狙う。台湾TSMC(台湾積体電路製造)の7nmプロセスで製造する。

 同社は18年にVersal ACAPの第1弾、第2弾となる「Versal Prime」シリーズ、「Versal AI Core」シリーズを発表。20年には第3弾として「Versal Plemium」シリーズを発表済みである。これら3つはクラウドやネットワークの用途を想定していたのに対し、今回のVersal AI Edgeはエッジ(端末)側のAI(人工知能)推論用途を狙う。また、Versal AI Edgeはシリーズ全体でオートモーティブグレードに対応する。

 同社プロダクトライン担当シニアマネージャーのRehan Tahir(レハン・タヒル)氏によると、Versal AI Edgeシリーズは従来のVersal AI Coreシリーズに比べて大きく2つの違いがある。(1)AI処理用のプロセッサーアレーをエッジ処理向けに最適化したこと、(2)オンチップメモリーを追加したことである。

プロダクトライン担当シニアマネージャーのレハン・タヒル氏
プロダクトライン担当シニアマネージャーのレハン・タヒル氏
(出所:ザイリンクス)
[画像のクリックで拡大表示]

 (1)AI処理用のプロセッサーアレーについては、従来のVersal AI Coreシリーズで搭載していた「AIエンジン」を改良し、「AIエンジン-ML」とした。従来のAIエンジンは32ビットの浮動小数点演算にネーティブで対応しており、ビームフォーミングやレーダー処理、HPC(High-Performance Computing)などに向いていた。これに対し、今回のAIエンジン-MLは8ビット整数(INT8)や4ビット整数(INT4)、「BFLOAT16」の演算に最適化しており、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)、MLP(Multilayer Perceptron)などの推論処理に向くという。

AI処理用のプロセッサーアレー「AIエンジン-ML」
AI処理用のプロセッサーアレー「AIエンジン-ML」
(出所:ザイリンクス)
[画像のクリックで拡大表示]

 具体的には、AIエンジン-MLではプロセッサーアレー(演算コア)の乗算器を従来のAIエンジンに比べて2倍に増やした。その結果、演算コア当たりの性能はINT8で従来比2倍、INT4で同4倍、BFLOAT16で同16倍に高まったという。各演算コアに隣接するデータメモリーも従来の32Kバイトから64Kバイトに増やしたほか、プロセッサーアレーの共有メモリーとして新たに最大38Mバイトの「メモリータイル」を追加した。

 AIエンジン-MLでは、従来のAIエンジンとの互換性が失われるものの、AIエンジン向けに開発したソフトは、AIエンジン-ML向けに変換できるとしている。

 (2)オンチップメモリーについては、4Mバイトの「アクセラレータRAM」を搭載した。このメモリーはAIエンジン-MLやリアルタイムCPUコア、アプリケーションCPUコア、FPGAコア(適応型エンジン)など、チップ内の各ブロックからキャッシュメモリーとして利用できる。例えば、AIの演算途中のデータをこのメモリーに保管することで外部DRAMへのアクセス頻度を減らし、AIエンジン-MLの処理性能を20%改善できるという。

オンチップメモリー「アクセラレータRAM」
オンチップメモリー「アクセラレータRAM」
(出所:ザイリンクス)
[画像のクリックで拡大表示]