「Bing」AIが作成したビジネスメールが秀逸すぎる 処理を的確な方向に導くための「パン屑」とは
「推論はするが「認知」はしない
OpenAIはGPTのパラメータ規模を超大規模化することで「それらしい受け答え」ができるAIにしたが、決して解決すべき問題やその周辺の状況を”認知”しているわけではない。「認知しているのではないか?」と錯覚を覚えるレベルではあるが、AIは推論しか行わない。
推論の結果、「正しいであろう選択肢を選んでいる」だけだ。
前回の記事では、極めて多くのパラメータを持つ大規模な推論を行うことで、まるで人間のように自然な文章を作れるようになった一方、AI自身は生成した文章の意味については認識していないことについて説明した。AIは出した答えを認知していないが故に、誤った答えでも自信満々に答える。
しかしそもそも、それが誤りであるかどうかをまったく認知していないため「ChatGPTは平気で嘘をつく」という感想は正確ではない。AIは嘘を吐き出すのではなく、単純に推論の結果として「もっともらしい」選択肢を選んでるだけだからだ。
当然だが、生成された文章が答えた相手にどのような心理的な影響を与えるか、あるいは社会的にどのような影響を与えるかなど、まったく配慮することはない。
無料会員登録はこちら
ログインはこちら