AI(人工知能)の社会実装が進む一方で、倫理などAIに関するリスクへの関心が国際的に高まっている。AIを利用するユーザー企業は、どのような視点でAIリスクを検討すべきか。様々な仮想シナリオに基づいて考えてみよう。

連載
ビジネスの現場で「AI倫理」を考える
目次
-
工場の不良品検知AIを例に「AIに影響する環境の変化」の問題を考える
AI(人工知能)に関する問題の多くは、AIモデルの不確実性に起因する。AIの学習データや利用環境などの変化が原因となって、AIが開発者の想定しない振る舞いする可能性がある。
-
工場の不良品検知AIを例に「利用者に起こりうるAIへの過信」の問題を考える
AI(人工知能)の社会実装が進む一方で、倫理などAIに関するリスクへの関心が国際的に高まっている。AI倫理を実現するうえで、AIの利用者にはどのようなリスクを検討すべきか。今回は「利用者に起こりうるAIへの過信」について、仮想シナリオに基づいて考えてみよう。
-
人材選考AIを例に「AIと公平性」の問題を考える、学習データに潜んでいたリスクとは
AI(人工知能)の社会実装が進む一方で、倫理などAIに関するリスクへの関心が国際的に高まっている。AIを利用するユーザー企業は、どのような視点でAIリスクを検討すべきか。今回は「AIと公平性」について、仮想シナリオに基づいて考えてみよう。