「データ」の問題の場合、最も気づきにくく、意図しない形で混入してしまうのが社会的偏見です。AIの訓練に使用されるデータにバイアスとして知らず知らずのうちに入り込んでしまうのです。
顔認識AIの認識率に人種間で差が生じてしまったり、与信審査AIや人材採用AIで男性よりも女性に対し不利な結果を導いてしまったりというのは、訓練に使ったデータにそういった既存の社会的なバイアスが紛れ込んでしまったのが原因と考えられています。
バイアスを発見するための明確なガイドラインが必要
また、データの収集方法に問題がある場合もあります。
例えば、第2次世界大戦時、アメリカの海軍分析センター(CNA)が戦闘機の弱点を特定することを目的として帰還した穴だらけの機体を調査しました。被弾した機体から得られたデータを基に被害状況を丁寧にマッピングすると、エンジンやコックピットでは被弾が少なかったため、技術者たちはコックピット以外の部分を強化することにしたといいます。
しかし、実際にはエンジンやコックピットにダメージを受けた機体は墜落し回収できなかったため、エンジンやコックピットの被弾データが極めて少なくなっていたというのが真相のようです。
このようなバイアスは「生存者バイアス」とも呼ばれています。たまたま入手できた、あるいは入手しやすいデータを過度に信用してしまうのはAI開発の現場においてもよく見られる状況なので、つねに注意するとともに、そういったデータを検証しバイアスを発見するための明確なガイドラインが必要になるのです。
第2のアプローチがブランド価値を守り、そして高めるためのESGアプローチです。ESG、すなわち環境(Environment)、社会(Social)、ガバナンス(Governance)への社会的な意識はますます高まっています。
特に、欧州を中心に世界的に脱炭素への動きが加速しており、日本でも、2020年10月に菅義偉首相が所信表明演説で「温室効果ガス2050年実質ゼロ」を表明し、続く2021年4月には気候変動サミットにて、2030年度の温室効果ガス削減目標について「13年度比で46%減」と表明しました。日本企業も気候変動リスクへの対応が強く求められているのです。
では、こうした脱炭素の動きに対し、AIにはどのようなリスクがあるのでしょう?
AI研究のブレイクスルーとなった深層学習モデルは訓練に膨大な量のデータ処理を必要します。大規模なデータ処理では大量のメモリとプロセッサに対し高負荷を長時間与えることになります。したがって深層学習の成果は、消費電力の激増という負の側面を常に伴うことになります。消費電力の増加は二酸化炭素排出量の増加につながるため、大規模AIの訓練が地球温暖化につながっているのではないかという指摘もあるほどです。