自ら新しい画像を生み出したり設計図を作ったりといった創造性を持つAI(人工知能)。米ガートナーはジェネレーティブAIについて、「サンプルデータから成果物のデジタル表現を学習し、独創的かつ現実的な新しい成果物を生成するAI」と定義している。
ジェネレーティブAIは幅広い分野への応用が期待されている。ものづくりでは耐久性と軽量化を両立させる設計、化学分野では新素材や新薬の開発、IT分野ではコードの生成やアプリの操作画面の設計などへの応用が期待できる。ガートナーの予測では2025年までに、社会全体で生成されるデータのうちジェネレーティブAIによるものは現在の1%未満から10%に増える。さらに2027年までにメーカーの30%が製品開発の効率を上げるためにジェネレーティブAIを使い、先進創薬企業の50%が2025年までにジェネレーティブAIを使用すると予想する。
ガートナージャパンの亦賀忠明ディスティングイッシュト・バイスプレジデント アナリストは「AIの手法の進化により、ジェネレーティブAIは研究段階から実用段階に移行しつつある」と指摘する。データから特徴を学習して実在しないデータを生成したり元データの特徴に沿って変換したりする「敵対的生成ネットワーク(GAN)」や、自然言語処理向けの深層学習モデル「Transformer」をベースにカスタマイズした文章生成AI「GPT-3」などの登場で注目が増しているという。
さらなる応用例もある。英金融行為監督機構(FCA)は不正な決済を検知するAIの開発に向け、ジェネレーティブAIを活用している。実際の決済データ500万件を教師データとして学習させ、サンプルの決済データを大量に生成している。米サウスカロライナ大学と中国の貴州大学は、新たな無機化合物の化学構造などを調べる「同定」にジェネレーティブAIを用い、従来の手法より100倍以上高速に同定できる可能性を実証した。
悪用リスクと求められる倫理観
ジェネレーティブAIは社会や経済に甚大な被害を及ぼしかねない危険性も併せ持つ。一例が本物と見分けがつかない生成物「ディープフェイク」だ。あたかも政治家や著名人本人が話しているかのような動画やフェイクニュースが生成されると、大きな混乱を来しかねない。悪意のあるコードの生成やデジタルアートの贋作(がんさく)といった悪用も懸念される。
AI倫理を巡っては2021年11月、国連教育科学文化機関(ユネスコ)が国際的な規範を策定し、加盟国への「勧告」として総会で採択した。AI倫理に関する初の国際合意で、人間の尊厳、人権、基本的自由、環境、平和といった価値の保護のための原則などを盛り込んでいる。ジェネレーティブAIを含めたAIのメリットを享受しつつ、リスクを減らすには、AIを生み出し利用する一人ひとりの倫理観をアップデートする必要がある。亦賀氏は「時代に取り残されないためには、使いながらリテラシーを上げていくことが大切だ」と話す。