AI作成「お悔やみメール」は何が問題だったのか 生成AI活用のために知るべきリスクと対策

✎ 1 ✎ 2 ✎ 3 ✎ 4 ✎ 5
著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

アメリカのファンタジー・SF分野のあるオンライン雑誌サイトでは、それまで作品募集には単語当たりの単価に基づいた金額が支払われていましたが、生成AIで生成した作品が急増したため申し込みをストップしたという事例もあります。公開先のサイト・プラットフォームが生成AIの生成結果の受け入れを許可しているかどうかを確認するとともに、許可されていたとしてもそれが不適切な目的であればレピュテーションリスク、場合によっては賠償責任を負わされることに注意しなければならないでしょう。

内在するリスク

著作権の侵害:生成AIが学習に用いている大量のデータの中には著作権で保護されているコンテンツ(テキスト、画像、ソースコードなど)が含まれている可能性があります。利用にあたっては利用規約の内容をしっかり確認するとともに、学習データについて説明されている場合にはそこにも目を通しておいたほうがよいでしょう。

外国では実際に訴訟も起こっています。ソフトウェア開発プラットフォームが投稿されたコードを学習データとして使用したとして訴えられています。また芸術品の生成AIが、写真画像プロバイダーが保持していた画像を同意または適切なライセンスなしでAIの学習に使用しているとして訴訟になっています。

個人データの取り扱い:EUやアメリカでの生成AI規制の動きの理由の一つとして、個人データの取り扱いについて本人の同意がない点や取り扱いの透明性について疑問視されていることが挙げられます。アメリカAIデジタル政策センター(CAIDP)は2023年3月30日、プライバシーと公共の安全に対するリスクがあるとして、GPT-4の調査とさらなるサービス展開の停止を呼びかける書簡を米連邦取引委員会(FTC)に送ったと発表しました。

データのフェアトレード問題

その他、内在するリスクに含まれるもので、最近メディアで取り上げられているものに、生成AI内部の有害データのチェックに低賃金の労働者が使われているという問題もあります。これらは「データのフェアトレード問題」と呼ばれるもので、AIエコシステムとして健全性の観点で注目されています。

今後、生成AIのサービスを提供する各社で上記のリスクへの対策は進められると思われますが、利用者としてつねにこういったリスクが内在している可能性があることを意識する必要があるでしょう。

鈴木 博和 アクセンチュア ビジネス コンサルティング本部 AIグループ シニア・マネジャー

著者をフォローすると、最新記事をメールでお知らせします。右上のボタンからフォローください。

すずき ひろかず / Hirokazu Suzuki

東京工業大学大学院情報理工学研究科計算工学修士課程、東京理科大学大学院イノベーション研究科技術経営修士課程修了。事業会社にて十数年におよびAIの研究開発・マネジメントおよびエネルギー・デバイス・メディカルなどの多領域での研究企画に従事。その後、IT系コンサル会社にて主に情報通信・流通・メディカル業界のクライアントに対し自然言語処理を中心としたソリューションのPoC~導入・運用支援を多数経験。現在はアクセンチュアにて、AI POWEREDサービスの一つ、AI POWEREDバックオフィスの開発・提案・デリバリーのリードを行いながら、さまざまなAI技術を活用した業務改革の実現に日々奔走している。

この著者の記事一覧はこちら
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
マーケットの人気記事