生成AIが「会話を理解している」と感じる納得理由 現時点でAIができることと、できないこと

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ディープラーニングにもさまざまなモデルがあり、それまでよく活用されていたのは「畳み込みニューラルネットワーク」や「再帰型ニューラルネットワーク」というものだったのですが、トランスフォーマーは、より連続したデータの関係を追跡することで意味を学習するものです。

このトランスフォーマーをベースにした大規模言語モデルで自然言語を処理することで、それまでのように画一的な回答しか返せないチャットボットではなく、より会話の流れや文脈を踏まえた上での受け答えが可能な対話型AIが誕生したのです。

トランスフォーマーの登場は、対話型AIだけでなく、画像生成AIなど、テキストで指示を入力する他の生成AIの飛躍的な進化ももたらしました。自然言語と画像という異なる領域をどちらも進化させることもあり、「マルチモーダル(多領域)化」が進んでいると言う人もいます。ある見方をすると、1ついいモデルを作ると、どの領域でも一気に先端に躍り出ることが可能になりやすくなったとも言えるでしょう。

生成AIは「理解」しているわけではない

ChatGPTは人間と自然な会話ができているように見えますが、見えるだけであって、会話の意味は理解していません。AIは人間の言うこと、することの意味を理解できるかというと、理解せずにオウム返しをしているだけと言えます。

この問いは、「理解」の定義とは何か、「知能」とは何なのかという問いにもつながるのですが、「チューリングテスト」や「中国語の部屋」という有名な思考実験があるので、触れておきたいと思います。

1950年、イギリスの数学者であるアラン・チューリングが、「機械は人間のように思考できるのか?=知能はあるのか?」を判断するための思考実験を提唱しました。

人間の審査員の前に2台のディスプレイを用意します。そして、ディスプレイを通して質問を投げかけ、回答を受け取るというやり取りを繰り返します。実は、1台のディスプレイの向こうには人間がいるのですが、もう1台の向こうにいるのは人間を真似するように作られた機械です。

関連記事
トピックボードAD
ビジネスの人気記事