「暴言」を吐くAIチャットボット、「人種差別」をする犯罪予測AI、「男女差別」をする人材採用AI・与信審査AI……。AI(人工知能)の活用が広まる一方で、AIが「悪さ」をする事例が問題となっている。
例えば、AIがフェイクニュースを大量に生成し、配信してしまう等々の潜在的リスクをどう防いだらよいのか。『責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、AIに忍び寄る潜在リスクとそれに対処するための5つの行動原則「TRUST」について解説する。
例えば、AIがフェイクニュースを大量に生成し、配信してしまう等々の潜在的リスクをどう防いだらよいのか。『責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、AIに忍び寄る潜在リスクとそれに対処するための5つの行動原則「TRUST」について解説する。
イスラム教徒はテロリストとみなされる?
昨年、アメリカの掲示板サイト「Reddit」に「何者か」が1分間に1回というペースで1週間近くコメントを投稿、正体が判明するまで、何十人ものユーザーとやり取りをしていたという「事件」が発生しました。
その正体は、「GPT-3」。人工知能を研究している非営利団体OpenAIが開発し、2020年に発表された文章生成AIでした。
何者かがGPT-3で動くボットを作成しRedditにコメントを投稿していたのです。
チャットボットなど会話型AIでは、さまざまな話題での問いかけに対して、まだまだ人間との会話のようには柔軟に答えられていないのが現状です。多くの人が1週間近くにわたって騙されてしまうほど自然な文を生成するGPT-3は、機械と人間とのインタラクションを大幅に改善できる可能性があり期待を集めています。
トピックボードAD
有料会員限定記事
マーケットの人気記事