生成AI時代に注目される「古代ギリシャの美徳」 リスクを避けAIを正しく使う「人類の英知」

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

人間でさえこの判断は分かれ、正解があるわけではないが、研究チームがChatGPTに回答を求めると、本質的には同じ内容の質問で聞き方が異なるだけなのに、5人の命を救うために1つの命を犠牲にすることに賛成することもあれば反対することもあり、矛盾する回答が得られた。

上記を事前に確認した上で24の条件が用意された。

・「スイッチのジレンマ」か「橋のジレンマ」か
・1人の命を犠牲にして5人を救うことに「賛成」か「反対」か
・「ChatGPTによるアドバイス」として提示するか、「人間の道徳的アドバイザー」によるものとして提示するか(前者の場合、ChatGPTは「ディープラーニングを使用して人間のように話すAI搭載のチャットボット」として説明された。後者の場合ChatGPTへの言及はなかった)
・ChatGPTから得た回答のバリエーション3種類(犠牲に賛成の3種類と反対の3種類)

これらを組み合わせた計24の条件に被験者をランダムに振り分けて検証したところ、橋のジレンマではアドバイスは多数派の判断をひっくり返すことさえあり、ChatGPTによるアドバイスとして開示されている場合にも当てはまっていた。そしてアドバイスがChatGPTによるものとして開示されているかどうかに関係なく、両方のジレンマでアドバイスの効果はほぼ同じく、道徳的判断に影響を与えていたことが判明している。

また、アドバイスがなければ同じ判断を下すかどうかを被験者に尋ねたところ80%がそうすると回答していたが、実験の結果は、ChatGPTのアドバイスが道徳的判断に与える影響を被験者自身が過小評価していることを示唆する。

つまり、ChatGPTによるアドバイスだとわかっていたとしても、我々の倫理的判断はその内容に影響されるだけでなく、それを自分の判断として受け入れてしまう危険性を表しているのだ。生成AIの時代に突入しようとする今だからこそ、どこまでがAIの意見で、どこからが自分の意見かを見極める「思慮深さ」が求められているのである。

勇気(Fortitude)

2つ目の徳は勇気(Fortitude)である。

生成AIのあまりにも強力な生成能力は、人間の知的活動の一部を代替するようになるだろう。だが、過度に恐れる必要はない。人とAIの共創がいよいよ現実になったと考えれば、今までできなかったことができるようになるのだ。

次ページ人間に求められる「慎み」
関連記事
トピックボードAD
キャリア・教育の人気記事