マイクロソフトのAI、「差別発言」で即停止 ツイート開始直後に問題が発生

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
ニューヨーク州ガーデンシティーで昨年7月撮影(2016年 ロイター/Shannon Stapleton)

[24日 ロイター] - マイクロソフトは24日、短文投稿サイトのツイッターでユーザーと会話する人工知能(AI)「Tay(テイ)」について、不適切な発言を繰り返したことから、ツイート開始から1日も経たないうちにつぶやきを停止した。

アカウント(@TayandYou)に掲載されていた情報によると、テイは多くのユーザーと会話を重ねるにつれて「より賢くなる」よう設計されていた。

テイは23日にツイートを開始。当初は当たり障りのない発言をしていたが、複数のユーザーが反ユダヤ主義的、人種差別的、反フェミニズム的な内容のツイートをテイに送ると、オウム返しした。ニュースサイト「バージ」は、テイが「フェミニストなんて大嫌い。皆死んで地獄で焼かれればいい」とツイートしていたと伝えた。報道によると、一部ツイートは後に削除された。

マイクロソフト側は24日、「残念ながら、テイの受け答え能力を悪用する一部ユーザーが確認された」とし、現在修正を行っていると表明した。

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ビジネスの人気記事