AIが人間の意思決定を操作する「本当の怖さ」 不透明な運営の「チャットGPT」に問われる責任
セグメントに基づくAIの確率的評価は、憲法13条の個人の尊重と矛盾しうる側面もある。さらにディープラーニングのような複雑な学習方法を用いると、AIの判断は人間には理解できなくなるというブラックボックス問題が生じる。
バイアスの中身がわからない「GPT-4」
AIに低い評価をされた人になぜそうなったのかの理由が説明されず、個人が再挑戦の機会を失って社会的に排除され続けるという事態も生じるかもしれない。いわゆる「バーチャルスラム」だ。憲法の精神からいって、これは避けなければならない。
ウェブサイト上のいわゆるクッキー情報を使ったプロファイリングのみならず、今後はメタバースが広がりヘッドギアをつけてVR(仮想現実)空間に没入するようになれば、アイトラッキングといった視線分析や脳波測定まで行えるようになるだろう。政治からマーケティングまで、今や幅広い領域で人々の「認知」が標的となり、その手法も日増しに高度化している。
――AIを用いたプロファイリングについては、「ChatGPT」のような生成AIでも問題になるのでしょうか。
プロファイリングと呼ぶかどうかはわからないが、似たような問題は起こるだろう。運営会社のオープンAIが3月中旬に公開した大規模言語モデル「GPT-4」は、AIが学習したデータの規模や中身を明らかにしていない。
彼らがどのようなデータを、どれぐらい集め、どのような解析を行っているかがわからなければ、GPT-4の回答に入っているバイアスの中身もわからない。GPT-4の回答次第で個人の認知過程が歪むということは十分にありうる。
生成AIについては中国が自前の開発を進めているとも報じられているが、中国のような一党体制下では、学習データやアルゴリズムが調整され、国が回答してほしい内容を生成AIが回答するということになるかもしれない。そうした国家間の開発競争が繰り広げられる中で、はたしてオープンAIは「中立的」と言えるのか。
フェイクニュースを排除したり、誹謗中傷を含む回答をしたりしないということは重要だが、何がフェイクで何が誹謗中傷に当たるかの判断には、一定の価値判断を伴う。
そもそも、フェイクニュース対策を講じたり、誹謗中傷対策を講じたりするということ自体が一定の価値判断に基づいている。生成AIのポリシーやアルゴリズム次第で、言論空間が大きく歪められ、主権国家がつぶれることもあるかもしれない。限界はあるとしても、運営の透明性を確保することは極めて重要だ。
無料会員登録はこちら
ログインはこちら