PR

 丸山氏は、総務省が公開したAI開発ガイドラインの論点整理について、二つの問題を指摘する。

 一つは、AIのアルゴリズムを設計した人の責任と、AIに学習を施した人の責任を明確に分けていないことだ。

 機械学習を応用したAIの開発工程は、大ざっぱに言えば「アルゴリズムを設計すること」と「データを入力して学習させること」に分かれる。深層学習でいえば、ニューラルネットワークの基本構成を決めるのが「設計」。そこにデータを大量に入力し、正しい出力が得られるようパラメータを調整するのが「学習」に当たる。

 同じアルゴリズムやニューラルネット構造でも、学習用データが変われば出来上がるAIも異なるものになる。AIの設計から学習まで開発者が担うこともあれば、学習の一部をユーザーが担うこともある。

 「にもかかわらず、現行のAI開発ガイドライン案は、開発者にばかり多くの責任を負わせる建て付けになっている。これはおかしい」と丸山氏は主張する。「会議に参加していた弁護士などは、ものづくりにおける製造物責任の考えを機械学習にもあてはめ、製造物並みの『品質保証』を求めているように感じた」(丸山氏)。

 AI開発の実情を踏まえ、AIがもたらす結果の責任について開発者だけでなく、学習を施した利用者を含め、全体を踏まえて責任を分担すべきというわけだ。「米マイクロソフトが開発し、ヘイト発言を繰り返したチャットボット『Tay』の場合、アルゴリズムを開発したのはマイクロソフトだが、実際にヘイト発言を学習させたのは利用者だ。マイクロソフトばかり非難されるのはバランスを欠く」(丸山氏)。

経営者がAI活用をためらう可能性

 もう一つの問題は、「政府が作成したガイドライン」という言葉が一人歩きし、開発の萎縮につながってしまうことだ。「企業や研究者コミュニティによる自主的な指針策定であれば問題はない。だが、こうした指針を政府の側から出すと、開発の萎縮につながりやすい」(丸山氏)という。

 例えば、同会議で策定中の開発原則の中には「透明性の原則」という項目がある。AIの挙動を後から検証できるよう、入出力データやログの保存など、技術の特性に合わせた「合理的な透明性」を求めるものだ。「合理的な」という文言は、深層学習を始め、本質的にブラックボックス化しやすい技術に配慮したものとされる。

 だが丸山氏は「この開発原則を『ガイドライン』という形で政府が公開すれば、企業の経営者は過剰に反応する可能性がある」と警戒する。「『このAIには、透明性があるのかね。ないとすれば、ビジネスには使えない』などと、過剰な萎縮を招く恐れがある」(丸山氏)というわけだ。

 AI開発ガイドラインの論点整理には、開発原則の実効性を担保するため「企業が第三者機関の認定を受け、開発原則への適合性について認証を受ける」といった枠組みも、論点として掲げている。「これでは、開発原則は法規制ではないが、それに近い実効性を持たせる方針、という話に聞こえてしまう」(丸山氏)。