フェイスブックの「出会い系」は何が違うのか 「デート機能」で目指すものとは?
2日目の基調講演では、技術的な各論が開発者向けに行われたが、最も印象的だったのはAI(人工知能)の倫理についてだ。
そのプレゼンテーターはイザベル・クロウマン氏。自身が妊娠していることを明かしたうえで、自分の子どもの教育が親の責任であるように、人工知能のしつけはそれを開発する人々にあると強調した。
そのうえでフェイスブックでは、開発にかかわる人、データ、アルゴリズムの多様性を担保し、人種、性別、信仰、政治信条などの偏りが生じないことに配慮することを明らかにしている。
倫理に関するメッセージを打ち出した意味
シリコンバレー企業がこうしたメッセージを打ち出したことには意味がある。これまで移民やLGBTを含む多様性を声高に叫んできたカリフォルニアのテクノロジー企業であっても、男性優位のエンジニア採用や、役員レベルの多様性の確保が十分でないなど、実効性を問われる場面が数多くあった。
そうした環境でAI開発が加速すれば、現在の社会と同様、AIが作り出すデータやそれによって構成される未来の社会も、現在の偏りが残り続けることを意味する。フェイスブックのメッセージは、こうした問題に対処しよう、というものだ。
とはいえ、われわれはフェイスブックの言葉を信じる以外に、チェックする方法が用意されていないことも確かだ。人工知能の学習とわれわれが触れる製品は直接的には繋がっておらず、われわれが偏りを認識することは極めて難しいからだ。
今後、フェイスブックが人工知能開発の「倫理」で主導権を取ったり、他者との連携を強化することは、一定の成果を上げるための第一歩と言えるだろう。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら