AIが人間の意思決定を操作する「本当の怖さ」 不透明な運営の「チャットGPT」に問われる責任
――AIの開発・運用の透明性を高め、その監視機能を強めるには、どうすればいいのでしょうか?
第三者による監督委員会を設けることも一案だろう。フェイスブック(現メタ)では、世界各国の専門家で構成される監督委員会が、コンテンツ削除に関するメタの判断が同社のポリシー、価値観、人権への取り組みなどに従ったものであったかどうかを審査している。
今後は、レコメンデーションや自動削除のためのAI・アルゴリズムの妥当性や倫理性も監督委員会が審査すべきだという意見もある。チャットGPTのような生成AIでも、ポリシーやアルゴリズムの妥当性を審査する仕組みが必要になるだろう。
日本は欧米にルール形成で追い抜かれた
一方で、法的な枠組みも必要になる。EU(欧州連合)では2021年4月に欧州委員会が、AIに関する規則案を発表している。2024年に完全施行される予定で、人々の行動を歪めることを禁じたり、生成AIのようなチャットボットに対する透明性を義務づけることを求めたりしている。違反した企業は、最大で3000万ユーロ(約42億円)か、全世界における売上高6%のうちどちらか高い金額を制裁金として支払わなければならない。
EUはこのほかにも2022年10月に、デジタルサービス法(DSA)が欧州評議会で採択されている。DSAはネット上のオンライン仲介サービス提供者に対して透明化を徹底して求め、特に大規模なプラットフォーム事業者については、民主主義へのリスクなどを査定させ、もしリスクが認められる場合にはそれへの対策を講じることなどを義務づけた。
さらに2023年1月には、「デジタルの権利と原則に関する欧州宣言」を公表している。EUでは、デジタル時代において個人の意思形成の自律性をいかに確保するかに強い関心が払われている。
アメリカでは、2022年10月にホワイトハウスの科学技術政策の局長らが「AI権利章典のための青写真(Blueprint for an AI Bill of Rights)」を発表している。イギリスから独立したアメリカの建国期を想起しつつ、あらためて憲法的な含意を持った権利章典が必要と主張している。そこからは、自ら創り上げたテクノロジーからの権利保護を目指す強い意志を感じる。
日本では2018年に内閣府が「人間中心のAI社会原則検討会議」を設置し、2019年に同原則を公表した。そのときはAI倫理をめぐるルール作りを先導できると一瞬期待したが、いつの間にか欧米に追い抜かれていた。日本は先端技術の開発や経済発展、効率性に関する議論が強く、人権や民主主義に対するコミットメントが弱いように感じる。5月に開かれるG7広島サミットでは、生成AIの加速的発展を見越して、こういうテーマも積極的に議論してもらいたい。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら