全5869文字
PR
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です
本記事はロボットとAI技術の専門誌『日経Robotics』のデジタル版です

 富士通はフランスの研究機関Inriaと共同で、時系列データに異常が見つかった場合の原因解析に役立つ新技術を開発した。異常がなかった場合に、そのデータがどう振る舞うのかを可視化できる(図1)。異常度を連続的に変化させると、波形がどのように変わるかを表現することも可能だ。この技術を裏付ける理論を、機械学習技術のトップカンファレンスの1つ「ICML2021(The Thirty-eighth International Conference on Machine Learning)」で2021年7月に発表した1)

図1 異常な時系列データの原因を探る新手法を開発
図1 異常な時系列データの原因を探る新手法を開発
富士通とフランスInriaは、機械学習技術によって時系列データに異常が検出された時に、その原因を探りやすくする新技術を開発した。これまでも、いわゆる「説明可能なAI(XAI)」技術を利用すれば、異常とされたデータのどの部分が判断に大きく寄与しているかを知ることはできた。ただし、そこから根本的な理由を推測することは、得てして困難だった。その一因は、異常な箇所がわかっても、正常な場合にその部分がどのように振る舞うのかが明確でなかったことにある。富士通らの手法を使うと、異常とされた部分が正常な場合にどう変化するかを的確に推定できる上、異常度を変えた時にデータの波形がどのように変わるかも可視化可能である。こうした機能を専門家が使うことで、原因の特定が容易になると期待する。(波形の画像:富士通)
[画像のクリックで拡大表示]

 機械学習を使った異常検知の悩みどころは、異常の原因が必ずしも自明ではないことである。機械学習で作成した異常判定モデルは内部がブラックボックスになりがちで、判断の基準が明確ではないためだ。この問題に対処する手段の1つに、いわゆる「説明可能なAI(XAI:explainable AI)」の技術がある。実際、個別の推論結果に対して、入力したデータのどの部分がモデルの判断に大きく寄与したかを特定できる手法が存在する。有名な手法は「LIME」や「SHAP」などだ2)

 ところが判定の対象が時系列データになると、問題は一段難しくなる。センサの出力波形などでは、上述の手法で問題が発生した部分を見つけても原因を判断し難い場合が往々にしてある。異常がないときに波形がどう振る舞うかが明確でないからである。正常な状態での波形がわからなければ、原因究明の糸口をつかめない。多数の正常データから平均的な波形を定義できればいいが、複数の個体からデータを集める場合などではデータごとに位相や振幅が大きくばらつき、波形の始点を揃えることすらままならないため、多くの場合で困難だったという注1)