一方、推論用IC「NNP-I1000」(Spring Hill)は、CPUコアの「Sunny Cove」を2つ、「ICE(Inference Compute Engine)」と呼ぶプロセッサーエレメントを12個、24Mバイトの共有キャッシュ、LPDDR4対応のメモリーインターフェース、および×4/×8のPCI Express Gen3インターフェースを集積する。このうちICEは、MAC演算用の「Deep Learning Compute Grid」(8ビット整数演算の場合、性能は4K MAC演算/サイクル)や、512ビット幅で5並列のVLIWプロセッサーの「Programmable Vector Processor」、両者で共有される256KバイトのTCM、4MバイトのSRAMから構成されている。NNP-I1000の性能は、例えば、以下の通り。学習済みニューラルネットワーク「ResNet50」を処理した場合に、毎秒3600推論が可能で、消費電力は概ね10Wという。

 NP-T1000とNP-I1000共に2019年11月12日より出荷を開始した。価格などは未公表。

m.2カードに実装した「Nervana NNP-I1000」(中央)
m.2カードに実装した「Nervana NNP-I1000」(中央)
Intelの写真
[画像のクリックで拡大表示]

 Intelは今回の AI Summitでこのほか、VPU(Vision Processing Unit)の第3世代Movidius(開発コード名:Keem Bay)を紹介したり、Intel Deep learning Boost技術を搭載した次世代Xeon Scalable Processor上で「bfloat16」を実行するデモンストレーションを行ったりした。

第3世代Movidius VPUを掲げるIntelのJonathan Ballon氏(vice president in the Internet of Things Group)
第3世代Movidius VPUを掲げるIntelのJonathan Ballon氏(vice president in the Internet of Things Group)
Walden Kirsch/同社の写真
[画像のクリックで拡大表示]