全1078文字
PR

 米グーグルが独自に定義した深層学習用の浮動小数点精度「bfloat16」が広がりを見せている。米インテルや米フェイスブックなどに続き、英アームがbfloat16をサポートする。2019年10月8~10日(米国サンノゼ)で開催した年次プライベートイベント「Arm TechCon 2019」で明らかにした。

「Armv8-A」アーキテクチャー(命令セット)の次世代仕様にbfloat16 データフォーマットを追加する。まずは、「Neoverse(ネオバース)」ブランドのCPUコア「Zeus」でbfloat16をサポートする(関連記事)。Zeusは7nm+(EUVありの7nm)プロセスでの製造を前提にしており、2020年発売予定である。

アームは「Armv8-A」アーキテクチャー(命令セット)の次世代仕様にbfloat16 データフォーマットを追加する。写真は「Arm TechCon 2019」での発表の様子。写真内の人物は同社 SVP & GM of InfrastructureのDrew Henry氏(撮影:日経 xTECH)
アームは「Armv8-A」アーキテクチャー(命令セット)の次世代仕様にbfloat16 データフォーマットを追加する。写真は「Arm TechCon 2019」での発表の様子。写真内の人物は同社 SVP & GM of InfrastructureのDrew Henry氏(撮影:日経 xTECH)
[画像のクリックで拡大表示]

 bfloat16では、浮動小数点の精度を示す「仮数部」に7ビットを、数値の幅を示す「指数部」に8ビットを割り当てる(関連記事)。仮数部が23ビット、指数部が8ビットのFP32(単精度浮動小数点)に比べて精度は下がるものの、指数部は8ビットで扱える数値の幅(ダイナミックレンジ)は同じにしてデータサイズを抑えたことが特徴である。このため、ディープラーニング(深層学習)を用いた学習処理に向くとされる。