生成AIの普及で、ニセ情報が流布するリスクも爆発的に高まっている。
ChatGPTのブームが収まらない。7月24日発売の『週刊東洋経済』は「ChatGPT 超・仕事術革命」を特集。個人での利用に次いで、今、企業でのビジネス活用も盛り上がりを見せる。そんな生成AIの「最新事情&実践術」を大公開。いち早くChatGPTを特集した本誌だからこそお届けできる特集シリーズ第2弾。
生成AIが爆発的に普及する中、社会にとって脅威となるのが信憑性の問題だ。例えばChatGPTなどのチャットボットでは、AIがもっともらしくウソをつく、「ハルシネーション(幻覚)」と呼ばれる現象の起こることが知られている。
東京大学は4月に発表した学生・教職員向けの利用指針で、「使いこなすには相当の専門的な知識が必要であり、回答を批判的に確認し、適宜修正することが必要」とした。今後、新しいモデル手法の開発などによって精度は改善されていくといわれているが、出力に対してのファクトチェックは今後も求められる。
巧妙な文章による詐欺にも注意が必要だ。7月に米ハーバード大学が発表した生成AIのガイドラインには、「はるかに大規模で精巧な詐欺を容易に作り出せるようになった」とあり、フィッシング詐欺への注意喚起を行っている。
この記事は有料会員限定です。
ログイン(会員の方はこちら)
有料会員登録
東洋経済オンライン有料会員にご登録いただくと、有料会員限定記事を含むすべての記事と、『週刊東洋経済』電子版をお読みいただけます。
- 有料会員限定記事を含むすべての記事が読める
- 『週刊東洋経済』電子版の最新号とバックナンバーが読み放題
- 有料会員限定メールマガジンをお届け
- 各種イベント・セミナーご優待
トピックボードAD
有料会員限定記事
無料会員登録はこちら
ログインはこちら