偽情報で「加害者」にされる!「AI悪用」の防ぎ方 リスクを軽減する「責任あるAI」と「AI倫理」

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

悪用のリスク:生成AIにはスパムメールやマルウェアの生成など不適切な目的で使用できないよう内部にフィルタリング機能がありますが、そのフィルタリング機能を回避し悪用する事例が報告されています。悪意ある目的に使われないようにするとともに、もしもそのような目的に活用できるような抜け穴が見つかったら速やかにベンダーに報告する体制が求められます。

「責任ある生成AI」への「AI倫理」

人間の社会に道徳や法律があるように、AI利活用においても守るべき行動規範が存在します。それが「AI倫理」です。生成AIはとても強力な文明の利器ですが、あまりに強力すぎる利器は諸刃の剣でもあります。これまで述べてきたようなリスクがあることを認識し、倫理観を持って利用する必要があります。そのうえで、リスク軽減のために以下のことに留意しなければなりません。

事前検討によるリスク軽減

利用規約について調べる:利用規約をよく読んで理解します。入力データが学習に利用される可能性があるか、可能性がある場合にはオプトアウトを申請することが可能か、などを調べます。

学習に使われているデータについて調べる:著作権上問題ない画像のみを使って画像生成するサービスも登場しています。このように、利用しているデータについて問題ないもの、あるいは問題が生じないように手当てしていると明示しているサービスを利用するようにします。

また、生成AIを利用したサービスも今後どんどん登場してくると思われます。利用者としてどのようなデータをインプットするか、どのような生成結果がアウトプットされ、それらのデータがどう利用されているのかについて、それまで以上に注意を払う必要があるでしょう。

利用時のリスク軽減

効果だけでなく影響も意識する:つい出力結果のすごさに目がいきがちですが、周りの人にも意見を聞き、悪影響が出る可能性はないか、検討します。外部に公開される場合には、風評被害、炎上リスクにも気を配ります。

次ページ利用時のさらなるリスク軽減策は?
関連記事
トピックボードAD
マーケットの人気記事