無制御「生成系AI」利用者がリアルに直面する危険 「責任あるAI」をどうすれば実現できるのか

✎ 1〜 ✎ 93 ✎ 94 ✎ 95 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

この問題は今後改善されるだろうか? 事実や論理については、学習が進められて、改善がなされるだろう。しかし、AIは、ウェブ上に公開されている情報を用いて学習を行っている以上、誤りを根絶することはきわめて難しい。また、特定の意見を大量に流すことによって学習内容を操作することも行われるだろうが、それに対抗するのも難しい。

AIを利用するアプリについて、以上のような誤りはこれまでも原理的にはあったものだ。しかし、これまでは、AIは専門家が使う場合が多かった。だから、誤りをチェックしやすかった。

多くの人々が直接に使えるものとして提供されてきたアプリは、自動翻訳、検索画像認識、音声認識などであり、限定的だった。しかも、誤りがあっても、誤りであることがすぐにわかる場合が多かった。生成系AIが出力する文章は外見上はもっともらしいために、誤りを見いだしにくいのだ。

開発した企業に社会的責任はあるのか

ChatGPTもBingも、「結果が間違っているかもしれないから、依存してはならない」という注意書きを出している。これは、考えてみれば奇妙な注意書きだ。簡単にいえば、「欠陥サービスを提供している」ということだからである。

この意味で、ChatGPTもBingも、一般の利用に供してよい以前の段階のサービスを提供している、つまり、「フライングしている」と考えざるをえない。

もちろん、どんなものでも使い方が重要だ。料理に使う包丁も、殺人の道具になりうる。自動車も、使い方を誤れば人を殺す凶器になる。このため、安全基準があり、運転免許証制度がある。

しかし、生成系AIにはそのような仕組みがなく、誤りのチェックが、まったく利用者の個人責任に任されているのだ。企業の社会的責任と言われるが、このような段階のサービスを市場に出すことこそ最大の問題だ。

これをどうコントロールできるか? ChatGPTもBingも、提供しているのはアメリカの企業だから、日本がコントロールするのは容易でない。だからこそ、G7のような場で議論することに意味がある。

次ページ開発を抑制して解決できる問題ではない
関連記事
トピックボードAD
政治・経済の人気記事