全4231文字
PR

AIを安全かつ安心に運用していくためにはAIガバナンスが欠かせない。自社のAI活用のガイドラインをオペレーションルールとして策定する。リスク評価のプロセスを定着するには、ドキュメントを自動生成する仕組みが有効だ。

 AI(人工知能)先進国である米国ではAIガバナンスの必要性が広く認識されています。特に金融機関におけるAIガバナンスの課題はAI活用当初より考慮されており、2011年には米連邦準備制度(FRB)のSR 11-7という規制が策定されています。

 こうした米国の動きを追いかけるように、日本では2021年11月に「モデル・リスク管理に関する原則」を金融庁が公表。総務省は「AI活用ガイドライン」、経済産業省は「AI原則実践のためのガバナンス・ガイドライン」を公開しています。先行する金融業以外でも今後さらなる法整備が広がっていくと考えられています。

 こうした動きを踏まえ、今回はAIを安全かつ安心に運用していくための手法を見ていきます。具体的には、「AIガバナンス」「AIオペレーションルール」「仕組み化」の3点を解説します。

企業理念としてのAIガバナンス

 AIガバナンスとは、公平性や企業倫理に基づいてAIを活用するために、AIで扱うデータや利用シーンにおけるリスクを検討し、AIを自社で評価し運用する体制を整備することです。AIガバナンスは、組織内で運用するAIのビジネスや倫理上のリスクを統制するためのもので、適切に実行するためにはボトムアップではなく、経営陣が責任を持って推進していくことが重要です。ガバナンスのとれたAI活用を実現するためには、AIプロジェクトを推進する特定の部門や現場に任せきりにするのではなく、経営陣が先導し、第3者がAI構築と運用の監査を行える体制を整える必要があります。

図 AIガバナンスのための体制
図 AIガバナンスのための体制
経営陣が率先してプロジェクトを推進(出所:経済産業省「我が国のAIガバナンスの在り方」)
[画像のクリックで拡大表示]

 図に示したのは、経済産業省が取りまとめた「我が国のAIガバナンスの在り方」で紹介している組織体制の一例です。企業規模によって体制は異なりますが、経営陣がAI活用の責任者としてガバナンスを先導するポジションにいるのは共通しています。

 AI活用にガバナンスを利かせるには、ガイドラインとオペレーションルールの整備が必要です。ただし、どれだけ整備してもリスクをゼロにすることは難しいと言えます。例えばAIガバナンスにおいて重要な「公平性」という概念を考えても、時代に基づく部分が多く、過去では公平であったものが現代においては不公平とされることがあるからです。

 重要なのは想定されるリスクを最小化し、発生した問題に対して、迅速な原因の特定と修正を行えるようにあらかじめ準備しておくことです。