NYT記者が分析する、AIが抱える最大のリスク 「まだ暴走列車ではない」AIの現在地と課題

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
ニューヨークタイムズ記者スティーブ・ロー氏
スティーブ・ロー氏(写真提供:朝日新聞社)
日々驚くべき進歩を遂げるテック業界。スティーブ・ロー氏はニューヨーク・タイムズの記者として、ChatGPTの開発者であるサム・アルトマン氏や、ツイッター買収などでも話題をさらうイーロン・マスク氏など、テック業界の中心人物への取材を行ってきた。氏が考える「AI最大のリスク」とは? この記事では『人類の終着点 戦争、AI、ヒューマニティの未来』(朝日新書)に収録されたロー氏の分析を公開する。

AIが抱える最大のリスクはいったい何か?

――AI技術が社会や人間にどう影響するか見極めるには時間がかかると言いますが、では、現時点での最大のリスクはいったい何でしょうか。

それは「テクノロジーが社会の先を行ってしまうこと」です。今、私たちが行っているのは、人類に対する制御不能な実験です。だから、われわれ人間が、いろいろな場面で機械の指示に従おうとしている。

欧州では、リスクに基づく規制管理レベルを定めるなど、AIに対する幅広いアプローチを行っています。「雇用や融資、刑事司法といったリスクの高い分野においても、AIに仕事を任せてよいものか?」「AIにローンを組ませることはできるのか?」「AIを刑務所に送り込むことができるのか?」。今挙げたようなハイリスクの分野では、規制をかけるべきでしょう。また、AIシステムが出した結論があなたに不利だった場合には、「どんな方法でその結論に至ったのか」を知る必要もあるでしょう。

そして、こうした大まかなガイドラインを示すことはもちろん難しいのですが、それを実施するのはさらに難しいのです。しかし、それでも方法はあります。

たとえばアメリカには「雇用法」や「公正融資法」といった法律もありますし、雇用機会均等委員会という組織もあります。AIテクノロジーが創り出す新たな状況に合わせて改善する必要はあります。しかし、制度的構造は整っています。こうした問題は必ずしも新しいものではありません。医療も金融もすでに厳しく規制されています。

関連記事
トピックボードAD
キャリア・教育の人気記事