「消防隊員」はこれらの知識とスキルを駆使し、アルゴリズムに潜むバイアスやAI/機械学習の倫理に反する適用を特定します。「消防隊員」の主な仕事は現場の手に負えなくなった「火事」を消火し後始末をすることだけでなく、警報プロセスに従い「火事」を予防するまたは初期消火を行うことも含まれます。
第4のアプローチは組織・人材に「AI倫理」を根付かせるという、組織・人材でのアプローチです。
AI倫理はAI倫理委員会を設置すればあとは自然に組織文化になっていくというものではありません。組織という「器」に「魂」を入れていく活動が必要になります。それにはまず、経営層、ビジネスメンバー、そして開発メンバーのそれぞれに対して、目的に合わせた内容の研修が求められます。
基礎知識の習得はすべてのクラスの従業員に求められますが、ビジネスメンバーはデータやモデルに存在するバイアスの概要やそのリスク、対応方法を習得する必要があります。開発メンバーは、データやモデルのバイアス検知およびそれを軽減・対処するためのより実践的な内容について習得する必要があるでしょう。
研修を通じAI倫理について組織内を啓蒙すると同時に、異議を唱えられる環境・風土を醸成することも重要です。これが多様な観点でのAI開発の推進につながっていくのです。
未来に向けたAIビジネス
不平等・不利益・差別への意識がこれまでになく高まっている昨今、「責任あるAI」はAIをビジネスに活用する企業・組織にとって”あればよいもの”ではなく、”必須のもの”になりつつあります。これまでAIが引き起こしてきた問題を振り返ってみると、図らずも世の中に存在している不平等や差別がデータの中に内在化してしまい、それがAIの出力結果に反映・増強されて固定化してしまったケースが多いように見受けられます。
そう考えると、われわれの世界に不平等や差別がいかにはびこっているかということ、そしてAIはただ単にその世界を映し出した鏡にすぎないということに改めて気づかされます。
AIのビジネスに関わるものは、今まで以上に高い倫理観が求められているといえます。AIがわれわれの仕事や生活を含め社会全体にどのような影響を与えるのかを常に考え、正しく活用し、また正しく疑うリテラシーが、今求められているのです。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら