「AIがロールシャッハテストをしたらどうなる?」画像を見るのではなくパターン認識するAIは、人間特有の内面的葛藤を再現できない

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

もともと同じアルゴリズムであるにもかかわらず、学習のさせ方によって、結果にこれほどの違いが出たことは、人間とコンピューターの認知のしかたの根本的な違いを浮き彫りにしている。

AIは本当の意味での主観性を持っておらず、その代わりに人間の集合的記憶や視覚文化を反映していると言うことができるだろう。だからこそ、AIを強化学習する際には、それに使うデータセットの中身が重要になる。

人間がロールシャッハテストを受けると、その回答には個人的な経験や感情が影響する。そのため、同じ画像を複数回見せて何に見えるかとたずねても、同じ回答を繰り返すことが多い。一方、AIの場合は同じ画像を見せられてもデータセットのなかから発見した類似のパターンやデータに基づいて回答を生成するため、質問のたびに異なる答えを返す割合が高い。

誤認識するAI

最近はだいぶ改善されてきたものの、AIのアルゴリズムには「幻覚」を見たり、事実と異なる情報をさも本当の話であるかのようにねつ造したりする、悪いクセがある。

そして、その誤認識を故意に引き起こすこともできてしまう。2018年にマサチューセッツ工科大学のコンピューター科学者アニッシュ・アサリー氏が行った実験では、猫の画像に少し手を加えることで、AI画像認識システムにそれがメキシコ料理のワカモレと呼ばれる料理だと誤って認識させられることを確認した。

さらに、野球ボールの3Dプリント模型の、質感や色を少し変えて作るだけで、エスプレッソにみせかけることにも成功した。

3Dプリント
AIがエスプレッソだと認識した3Dプリント模型(画像:Anish Athalye)

2017年の別の実験では、ある研究者が道端に立っている一時停止標識に、白や黒のステッカーを何枚か貼るだけで、自動車の先進運転支援システム(ADAS)がそれを認識できなくなることが示された。

AI
テープを貼るだけでAIが認識できなくなった標識(画像:University of Washington)
次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事