生成AIの普及で、ニセ情報が流布するリスクも爆発的に高まっている。

生成AIが爆発的に普及する中、社会にとって脅威となるのが信憑性の問題だ。例えばChatGPTなどのチャットボットでは、AIがもっともらしくウソをつく、「ハルシネーション(幻覚)」と呼ばれる現象の起こることが知られている。
東京大学は4月に発表した学生・教職員向けの利用指針で、「使いこなすには相当の専門的な知識が必要であり、回答を批判的に確認し、適宜修正することが必要」とした。今後、新しいモデル手法の開発などによって精度は改善されていくといわれているが、出力に対してのファクトチェックは今後も求められる。
巧妙な文章による詐欺にも注意が必要だ。7月に米ハーバード大学が発表した生成AIのガイドラインには、「はるかに大規模で精巧な詐欺を容易に作り出せるようになった」とあり、フィッシング詐欺への注意喚起を行っている。
この記事は有料会員限定です。
(残り 934文字 です)
【4/30(水)まで】 年額プラン2,000円OFFクーポン 配布中!
詳細はこちらから
東洋経済オンライン有料会員にご登録いただくと、有料会員限定記事を含むすべての記事と、『週刊東洋経済』電子版をお読みいただけます。
- 有料会員限定記事を含むすべての記事が読める
- 『週刊東洋経済』電子版の最新号とバックナンバーが読み放題
- 有料会員限定メールマガジンをお届け
- 各種イベント・セミナーご優待
無料会員登録はこちら
ログインはこちら