米Xilinx(ザイリンクス)社は、1個のArmコア内蔵FPGA「Zynq UltraScale+ EG(XCZU3EG)」上に実装できる、物体検出用の畳み込みニューラルネットワーク(CNN)「Tincy YOLO」を開発し、その概要をドイツ・ドレスデンで開催の電子設計・テスト技術に関する国際学会「2018 Design, Automation & Test in Europe:DATE 18」(3月19日~22日)で発表した。ビデオストリームからリアルタイム(16フレーム/秒の速度)で物体を検出できるため、ADASや自動運転向けの画像認識処理などに応用可能だとした。
登壇したのはアイルランドにあるXilinx Research Labsに所属するThomas B. Preußer氏である(同氏はECのMarie Skłodowska-Curie ActionsのFellow)。講演タイトルは「Inference of Quantized Neural Networks on Heterogeneous All‐Programmable Devices」(講演番号 7.6.4)である。GPU向けに開発された、物体検出用のCNN「Tiny YOLO」を、1個のZynq UltraScale+ EG(XCZU3EG)に実装できるように複数の技術や工夫を施したものが今回の「Tincy YOLO」である(注:よく似た名前だが、今回のものはTinyの「n」と「y」の間に「c」が入る)。XCZU3EGは4つのCPUコア「Arm Cortex-A53」と154K個のシステムロジックセルのFPGAファブリック(PG:プログラマブルロジック)などからなる。仮に、何の工夫もなく、Tiny YOLOを1つのARM Cortex-A53に実装すると、物体検出の速度は0.1フレーム/秒であり、リアルタイム処理には2桁足りないという。