ChatGPT「イタリアで一時禁止」裏にある深い事情 消費者と公益性を重視する欧州で起こっていること

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

2016年に一般データ保護規則(GDPR)よって設置されたEDPBは、EU加盟各国のデータ保護機関および欧州データ保護監督者(EDPS)の代表者で構成され、EU市民の個人データ処理に関するプライバシーを保護する規則を尊重することを保証している。

GPDPが問題視した項目もGDPRに即したものだ。

プライバシー保護法への違反(データ管理者の個人データ処理違反)、個人情報の不当な収集(ChatGPTのアルゴリズムを学習させるためにOpenAIが個人データを大量に収集・処理することに法的正当性がないこと)、透明性の高い情報の欠如(ユーザーに情報収集の参照元を提示してない)、年齢確認システムの欠如(13歳未満のユーザーに不適切な情報が提供されている)、さらにデータ侵害の恐れもあるとしている。

AIが意図的に人を中傷したことの証明は困難

実はEU全体にとってAI使用に関する規制は存在していない。EUの欧州委員会は2021年4月、AIを規制する法律を提出しており、2024年にも全面施行になる可能性があるが、その前倒しも迫られている。

主要起草者の1人であるドイツのアクセル・ヴォス議員は「AIは2年前にはそれほど進歩しておらず、今後2年間でさらに発展する可能性が高い」と指摘し、「法律が実際に施行された時点で適正に欠ける可能性もある」と述べている。

フランスの週刊誌レクスプレスは、それらの具体例として、「オーストラリアのある市長が、2000年代にオーストラリア中央銀行の子会社を舞台にした贈収賄事件に関与した」という誤った情報を提供したことを挙げている。指摘された市長がその子会社に勤務していたのは事実だが、汚職で実刑判決を受けた過去がないだけでなく、実際は賄賂の事実を当局に告発し、汚職摘発に協力したとしている。

レクスプレスは、ITに関する法制度に詳しいフランスのソニア・シセ弁護士のコメントとして「この種の犯罪が立証されるためには、故意的な要素が必要」と述べ、「AIが意図的に人を中傷したことを証明することは困難。さらにいえば、AIによって提供された情報の正確性を含め、その膨大さから管理は不可能でルールは何も確立されておらず、未知の領域」としている。

次ページイーロン・マスク氏らはAI開発の半年停止を求める
関連記事
トピックボードAD
ビジネスの人気記事