全1229文字
PR

 コンピューターシステムにおける判断や制御の一部に人間を介在させ、システムと人間が協調して課題解決を目指す考え方。HITLの一例として、飛行機や車の挙動を再現するフライトシミュレーター、ドライブシミュレーターなどのシステムにおいて、飛行機や車の操縦を人間が担当することなどがある。

 HITLはコンピューター工学などで幅広く使われている概念だ。中でも最近は機械学習の分野において「HITL(人間参加型)機械学習」に注目が集まっている。これは、モデルの推論精度を継続して高める取り組みである「MLOps」とHITLを組み合わせたものだ。

 具体的には、業務知識が豊富な担当者がモデルの推論結果が正しいかどうか確認し、間違っていれば推論結果を修正してモデルに改めて学習させる。例えば画像に写っている動物を推測する機械学習モデルの場合、猫が写った画像に対してモデルが誤って「犬」と判断したら、人間が画像に「猫」という正しいラベルを付けてモデルに学習させることで推論精度を効率よく高められる。

 機械学習の開発にHITLを活用する利点について、ABEJAの岡田陽介CEO(最高経営責任者)は「モデルの推論精度を極端に高めなくても運用を始められること」だと指摘する。モデルの推論結果をそのまま業務に使うのではなく、最終的には業務知識が豊富な担当者の判断が業務に反映される。そのためPoC(概念実証)を繰り返して精度90%を達成してからAI(人工知能)を導入するという、これまで多くのケースで繰り返されてきた苦労を軽減できると見込む。

 HITLの活用によって、AIを活用する業務担当者の負担を軽くできた例もある。プラントの配管表面を撮影した画像を基に配管の腐食度合いを判定するモデルを運用している三菱ガス化学は、機械学習モデルの開発・運用にHITLを取り入れた。同社はモデルの運用開始目標を「精度が6~7割を達成した時期」と定め運用を開始した。同社の新保利弘生産技術部プロセス技術グループ主席は、業務担当者の負担削減効果について「保守員が配管の腐食をチェックする際、モデルによって腐食部分だと思われる箇所がマーキングされた画像を使うほうが、何もマーキングされていない元の画像を見るよりも、業務効率が高まる」と語る。

人の関与で倫理を守る

 社会的倫理観を損なわずに機械学習モデルを運用するためにも、HITLによる人間の関与は重要だ。AIが学習に使うデータにバイアスが含まれていれば、AIが差別的な判断を下す可能性がある。さらに、法令や社会の倫理観などは絶え間なく変化するため、従来通りの推論をしていてもいずれ社会の倫理観に抵触するようになる恐れがある。

 そこで採用面談など社会的に重要な場面でAIを活用する場合、人間がAIの判断結果を覆せる仕組みと、最終的な判断は人間が下す運用が重要になる。仮にAIが倫理に反した判定をしても、被評価者が不当に不利益を被らないような運用ができる。