一方で、容易に想像がつくように、あたかも人間が書いたもっともらしい情報であるかのようなフェイクニュースをAIが大量に生成し、配信してしまうことも可能になります。情報の発信・入手が容易になっているこのネット社会において、これは非常に憂慮すべき問題です。
しかもそんなGPT-3の訓練に使われているデータに問題があったとしたら、さらに事態は深刻です。GPT-3には人種・ジェンダー間のバイアスが存在することが指摘されており、2021年にスタンフォード大学とマックマスター大学の研究チームが、GPT-3にはイスラム教徒への強いバイアスが存在しているとの研究結果を発表しました。テストケースの23%においてイスラム教徒をテロリストとみなす文章が生成されたといいます。
もちろんこのような結果は開発者が意図したことではありません。ここでは、このように意図せずにAIに紛れ込んでしまうさまざまなリスクについて説明します。またそういったリスクを認識したうえで、われわれがどのような行動指針に従うべきかについて解説します。
AIに紛れ込むさまざまなリスク
AIを開発・利活用する際には以下のポイントに留意する必要があります。
・ AIに対し、どのような入力と出力を想定するか
・ AIをどのようなアルゴリズム(計算方法)で実装するか
・ AIの学習のためにどのようなデータを使うか
それぞれのポイントにおいて潜在的なリスクが存在しています。
例えば、AIにより情報収集の効率化を実現するという目的を考えてみましょう。多数のニュース記事などから自分の関心やプロフィールに合わせて記事を収集してくれるキュレーションサービスが代表的な例です。
個人の趣味嗜好、関心に合わせて情報を集めてくれるのだから大きな問題は起こらないように思われがちですが、こうしたキュレーションやリコメンドのシステムは、提示される情報が偏ってしまう(広範に情報を集められないかもしれない)リスクが指摘されています。