2018年10月18日、東京ビッグサイトで開催している「日経 xTECH EXPO 2018」に、国立情報学研究所サイバーセキュリティ研究開発センター特任准教授の安藤類央氏が登壇。AI(人工知能)の脅威としてプライバシー問題を取り上げるとともに、人間が取るべき対策について解説した。

国立情報学研究所 サイバーセキュリティ研究開発センター 特任准教授の安藤類央氏
国立情報学研究所 サイバーセキュリティ研究開発センター 特任准教授の安藤類央氏
(撮影:山下 裕之、以下同じ)
[画像のクリックで拡大表示]

 AIが進歩し、深層学習と強化学習が流行するに至り、AIとビッグデータが人間にとって脅威となり、プライバシー問題の状況が変わってきた、と安藤氏は指摘する。「暗号化してデータを覗かれないようにするといった問題ではない。人間の尊厳や生死に関わる問題が生じている。生き残るためには、これまで持っていたリスク感覚を修正する必要がある」(安藤氏)。

 安藤氏は、AIによるプライバシー問題の1つで人間の生死に関わったケースとして、2014年にイギリスで起こった電話応答の事例を紹介した。ある患者が腹痛になり救急車を呼んだところ、電話に対応した担当者は、AIの指示に従って救急車は不要である旨を伝えた。最終的に患者は死亡した。こうしたことが起こる理由として安藤氏は「現在はAIの言うことを聞いてしまいやすい」と指摘する。

 AIによるプライバシー侵害は、人間を勝手に分類して差別するなど、尊厳にも関わるという。安藤氏は、1人の人間を「詐欺にあいやすい高齢者」や「脅迫的ギャンブル好き」など70種類のクラスターに分類して管理している企業の例や、ビタミン剤の購入履歴から妊娠を判断して10代の娘がいる父親に妊娠後のケアに関する書籍を送った例、また、有名な例として米国家安全保障局(NSA)や米中央情報局(CIA)の長官を務めたのマイケル・ヘイデン氏の「我々はメタデータに基づいて人を殺している」という発言を紹介した。

 AIの脅威への対策として安藤氏は、「反脆弱性によるリスク戦略が大事」と指摘する。ダイヤモンドのような硬さ(ロバスト性)では生き残ることはできず、コンクリートやヒスイのような靭(じん)性(粘り強さ、レジリエント)を持たなければならないという。「パスカルの賭け」を引き合いに、確率(起こる確率)を考えずにペイオフ(起こってしまった場合にどうなるか)を考えよと説く。役立つ格言としてゲーテ「感覚は欺かない、判断が欺くのだ」も紹介した。

講演の様子
講演の様子
[画像のクリックで拡大表示]