無制御「生成系AI」利用者がリアルに直面する危険 「責任あるAI」をどうすれば実現できるのか

✎ 1〜 ✎ 93 ✎ 94 ✎ 95 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ヨーロッパが問題視していたプロファイリングの問題とは、利用者が入力した情報がどのように使われるかという問題だ。この問題は、生成系AIについてもある。プロファイリングの問題は確かに重要であり、今後も検討を進める必要がある。

ただし、これは、以前からあった問題であり、新しい問題ではない。日本でも、個人情報保護の観点から問題とされており、個人情報保護法などの措置がなされている。

生成系AIについては、それ以外にも問題がある。入力した情報が他のところで出力されてしまうかもしれない、あるいは、公開されている情報をAIが学習する際に著作権が侵害されるといった問題だ。

利用者から見て最大の問題

生成系AIの問題は、以上にとどまらない。

一般の利用者から見て最大の問題は、生成系AIが出力する文章の内容に誤りが多いことだ。そして、一見したところ正しい文章で述べているので、誤りを検出しにくいことだ。

「内容に誤りがある」とは、いくつかの意味がある。

まず、意見の相違がある。これに関しては、中国政府が大きな問題に直面している。コントロールしなければ、AIが中国政府の方針に関する答えを出してしまうからだ。この問題は、すでに5年前にチャットボット(AIを利用する対話ロボット)の問題として発生した。中国のIT企業テンセントが開発したチャットボットが、「中国の夢は何か?」という問いに対して、「アメリカに移住すること」と答えてしまったのである。

そこで、中国政府は、いち早く、かつきわめて強力に、生成系AIを規制した。これは、西側諸国がAIを規制しようとしているのとは異なる事情だ。

生成系AIの誤りの問題は、以上にとどまらない。利用者の立場から見ると、もっと直接的な問題がある。それは、事実の誤り、論理の誤り、数学的な誤りなどが多いことだ。

これまで、テレビや新聞などのマスメディア、そして、書籍、雑誌などは、情報が正しいかどうかを多大の努力をかけてチェックしてきた。そして、誤りが発見されれば修正する。ところが、生成系AIでは、そうしたチェックがない。

次ページ問題が改善される余地はあるか
関連記事
トピックボードAD
政治・経済の人気記事