PR

 日立製作所は2021年2月22日、「AI倫理原則」を策定したと発表した。公平性や透明性、プライバシー保護などに関する、AIに内在するリスクの評価や対策を実施する狙いだ。鉄道や電力など日立の主力事業である社会インフラ事業を含む、日立の全事業に適用する。

AI倫理専門チームの運用体制
AI倫理専門チームの運用体制
出所:日立製作所
[画像のクリックで拡大表示]

 「AIシステムは入力データにバイアスや不適切な内容を含んでいた場合、設計時点では予測できない結果が運用の際に現れてしまうリスクがある」と日立製作所のサービス&プラットフォームビジネスユニット Lumada CoEの吉田順AIビジネス推進部長は指摘する。こういったリスクを抑制するため、設計や社会実装、運用の各段階において、原則に基づき人間中心の視点でAIを利活用する。

 AI倫理原則は「安全重視」「プライバシー保護」「公平性実現」「適正開発・利活用」「透明性・説明責任重視」「セキュリティ重視」「法令遵守」の7つの実践項目を含む。安全重視はAIシステムが正常に動作するよう品質を検証する。プライバシー保護はAIの学習や運用の際に利用する入力データやAIが出力するデータについて、個人情報を適切に扱う。公平性実現はAIの判断結果が人種や性別、国籍などによる差別や偏見を生み出したり助長したりしないように努める。

 適正開発・利活用はAIが設計された用途や動作条件とは異なる使い方をされないようにする。顧客やパートナーにも利用方針や利用条件などを示す。透明性・説明責任重視はAIの判断結果の根拠を検証・説明できるようにし、さらに顧客に対してその説明責任を果たすように努める。セキュリティ重視は情報漏洩や改ざんなどサービスの妨害をシステムや運用で防ぐ。法令遵守はAIが使われる国や地域の法令を順守する。

 AI倫理原則策定に伴い、全社の先端的なAI関連事業を推進する組織である「Lumada Data Science Lab.」の中に2021年2月に「AI倫理専門チーム」を発足した。AI倫理専門チームは数人規模のチームで、データサイエンティストや研究者、プライバシー保護に詳しい社員などを集める。社内のAI案件について倫理面から助言する、各事業部門への教育をする、外部の有識者と検討し原則を改善するなどの役割がある。