全1647文字
PR

 富士通研究所は2020年7月13日、ディープラーニング(深層学習)における教師なし学習の精度を大幅に向上できる人工知能(AI)技術「DeepTwin」を発表した。AI分野の長年の課題だった「次元の呪い」を、映像圧縮技術の知見を活用することで解決したとする。同社は論文を機械学習の最有力学会である「ICML 2020」で7月14日に発表する。

 「次元の呪い」とは、データの次元(要素数)が大きくなると、そのデータを分析する際の計算量が指数関数的に増大する現象を指す。次元の呪いを回避するため、一般的に機械学習の高次元データは次元を減らす。

 ただ従来の手法には、次元の削減に伴ってデータの分布や確率が不正確になる課題があり、それがAIの精度低下を招く一因になっていた。例えば分布や確率が実際と異なると、正常データを異常と誤判定してしまうような間違いを引き起こしてしまう。

 富士通研究所は今回、ディープラーニングを使った次元削減の手法である「オートエンコーダー」を映像圧縮技術の知見に基づいて改良することによって、分布や確率を損なわずにデータの次元を削減できるようになったとする。同社は次元削減における従来の問題点を解消したのは世界初であり、次元の呪いの課題を解決したとしている。

「情報量」を最小化するよう学習

 オートエンコーダーは、データの次元を削減する(圧縮する)ニューラルネットワークである「エンコーダー」と、圧縮したデータから元のデータを復元するニューラルネットワークである「デコーダー」で構成する。これまで、オートエンコーダーの学習(トレーニング)においては、大量のデータを使ってデータの圧縮と復元を繰り返し、元データと復元データの誤差が最小になるようにエンコーダーとデコーダーのニューラルネットワークのそれぞれを調整していた。

 それに対し、富士通研究所が今回発表した手法では、オートエンコーダーを学習する際に元データと復元データの誤差だけでなく、エンコーダーが次元削減したデータの情報量(データのサイズ)が最小になるようにニューラルネットワークを調整していく手法を取る。これにより、高次元データの分布や確率を損なわずに次元削減ができるニューラルネットワークが得られるという。

 富士通研究所は、誤差が一定の条件で次元削減したデータの情報量が最小になるように調整すると、分布や確率を損なわずに次元削減できることを数学的にも証明した。この証明が、今回の手法を実現する際の最も重要なポイントになった。

次元削減技術の特徴
次元削減技術の特徴
(出所:富士通研究所)
[画像のクリックで拡大表示]