無制御「生成系AI」利用者がリアルに直面する危険 「責任あるAI」をどうすれば実現できるのか

✎ 1〜 ✎ 93 ✎ 94 ✎ 95 ✎ 最新
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
生成系AIは、使用方法を間違えるとかえって非効率的になりかねません(写真:taa/PIXTA)
利用者からみて生成系AIの最大の問題は、回答に誤りがあることだ。これは、欠陥サービスを提供しているということであり、企業の社会的責任を果たしているとは考えられない。G7会合の声明は「責任あるAI」の推進を謳っているのだが、どうすればそれが実現できるのか?
昨今の経済現象を鮮やかに斬り、矛盾を指摘し、人々が信じて疑わない「通説」を粉砕する──。野口悠紀雄氏による連載第94回。

G7で、生成系AIが取り上げられた

ChatGPTなどの生成系AIの問題が、4月29、30日に開催されたG7のデジタル/技術相会合で取り上げられた。会議では、「責任あるAI」の推進などを盛り込んだ共同声明を採択した。

これまでもAIに対する規制は各国で問題とされてきた。特にヨーロッパでは、以前からAIによるプロファイリングに対する否定的な考えが強く、EUのGDPR(General Data Protection Regulation、一般データ保護規則)に見られるような規制を実行している。また、2024年にも完全施行を目指す欧州のAI規則案では、AIのリスクを4段階にわけ、高いリスクのあるAIは、市場に出す前に事前評価することが提案されている。

アメリカでも規制的な考えが出てきている。イーロン・マスク氏などの関係者による開発延期を求める提案がなされた。また、バイデン大統領も、「適切なガードレールが必要」との考えを示した。

今回G7で取り上げられたのは、生成系AIがもたらす問題が、世界的な広がりを持つ重要性を持っていることを示している。

次ページ何が問題なのか
関連記事
トピックボードAD
政治・経済の人気記事