AI作成「お悔やみメール」は何が問題だったのか 生成AI活用のために知るべきリスクと対策

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

生成AIのリスクを大きく大別すると、「事前に検討すべきリスク」と「利用時に検討すべきリスク」があります。前者はどのような目的で生成AIを用いるのか、どの生成AIを利用するのかといった観点で確認しておくべきリスク。後者は生成AIに入力したり、その結果を利用したりするときに考慮すべきリスクです。今回は、前者の「事前に検討すべきリスク」について、詳しく述べていきます。

事前に検討すべきリスク

まずは、事前に検討すべきリスクについてです。このリスクはさらに「外部環境におけるリスク」と「内在するリスク」に分けられます。

外部環境におけるリスク

生成AIをめぐる周辺事情、技術動向、世論など、外部環境に依存するリスクです。コントロールしづらいリスクであるともいえます。

法規制:生成AIに関しての規制は各国、各地域で温度差があり、国によっては禁止されている場合もあります。日本は現在、厳しい規制に関しては慎重な姿勢をとっており、利用しやすい状況にあるといえます。ただし、他国と共通のガイドライン策定に生成AIのベンダーも対応しなければならないので、規約やサービス内容が変わる可能性もあります。

2023年3月、イタリアのデータ規制当局はChatGPTのデータ管理に問題があるとして、同サービスがイタリア人のユーザー情報を扱うことを一時的に禁止しました。個人情報を大量に収集/処理することについて法的根拠がない点も指摘され、EUの他国もこれに追随する動きを見せていましたが、これに対するOpenAI側の対応は迅速でした。

AI学習に必要な個人データの種類の明確化、データ主体が情報の削除を要求できる仕組みの導入、年齢確認システムの導入などの安全対策を示したことで4月28日には禁止解除に至っています。このような安全対策は、各国の規制当局の指示に従う形で今後も増えていくと思われます。

EU全体の動きにも注意が必要です。現在、EUのAI包括規制案では、生成AIは汎用AIシステムと見なされ、法規制の対象になりえます。生成AIを利用するサービスが受けられなくなる、あるいは法規制対応のための企業のコストが消費者に転嫁される(サービス利用料金が上がる)可能性もあります。

レピュテーションリスク:生成AIを活用したことでSNS等で炎上し、レピュテーションリスクに該当することがあるので注意が必要です。例えば、以下のような事例があります。

次ページ「過度な依存」でベルギー人男性が自殺
関連記事
トピックボードAD
マーケットの人気記事