有料会員限定

AIエージェントは人類を破滅に追い込みかねない、ノーベル経済学者のダロン・アセモグル教授が警告するAIの究極リスク

✎ 1〜 ✎ 778 ✎ 779 ✎ 780 ✎ 781
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

有料会員限定記事の印刷ページの表示は、有料会員登録が必要です。

はこちら

はこちら

縮小
(写真:ブルームバーグ)

AI(人工知能)の「エージェント」は、我々に準備ができているかどうかにかかわらず、登場した。AIモデルがデジタル・プラットフォームや他のAIツール、さらには人間とも自律的に対話できるようになる時期については不明な点が多いが、この発展が良くも悪くも変革をもたらすことは間違いないだろう。

「自律型エージェント」と「助言型エージェント」

しかし、最近になって喧伝されているエージェントAIをめぐるあらゆる論評(および誇大広告)には、多くの大きな疑問が未解決のまま残されている。

有識者による政治・経済コラムを翻訳掲載。週刊東洋経済掲載分だけでなく、多くの選りすぐりのコラムもタイムリーにお届けする。バックナンバーはこちら

モデルが異なれば、意味合いも大きく異なる。「助言型エージェントAI」というモデルでは、AIエージェントは人間の意思決定者に個別に調整された提案を行い、人間が常に運転席に座ることになる。

一方で、「自律型エージェントAI」モデルでは、エージェントが人間に代わってハンドルを握ることになる。この違いは、深遠かつ広範囲に影響を及ぼす。

人間は毎日何百もの決断を下し、その中にはキャリアや生活、幸福に大きな影響を及ぼすものもある。これらの決断の多くは、不完全または不完全な情報に基づいており、感情、直感、本能、または衝動によって決定される。デイヴィッド・ヒュームが名言したように、"理性は情熱の奴隷であるべきだ"。

しかし、ヒュームが「べき」の部分で認めたように、これは悪いことばかりではない。それこそが人間を人間たらしめているのだ。情熱は目的を反映し、複雑な世界に対処するうえで重要な役割を果たすかもしれない。

次ページはこちら
関連記事
トピックボードAD