
1. AIと社会的責任
2024年のサステナビリティのトレンド紹介で、「AIによるESGの企業評価が本格化し始めた」と書いた。例えば、りそなアセットマネジメントが、AIによる具体的なESG評価について、同社のサステナビリティレポートで開示するなど、投資家サイドでも本格的な利用が始まってきている。ただ本稿ではESGの企業評価ではなく、「AI開発における社会的責任」という視点でこのテーマに触れていきたい。
その課題の1つは「倫理的なAI開発」だ。AI活用で、情報漏えいなどでのプライバシー侵害や、存在しない文献を根拠にした企業評価が行われるといった問題も起こる可能性がある。
またAIの進化で、仕事を失う労働者が増え、社会全体の雇用喪失も懸念されている。ほかにもAIを使った車の自動運転では、事故などで人命への致命的な影響も与えかねない。AI利用について、最終的に企業や国がどのような社会的責任を持つべきなのかを考えることが課題となりそうだ。
環境的側面も大きな課題だ。AI開発を行うグーグルとマイクロソフトは、2024年に「年間の温室効果ガス(GHG)排出量が大幅に増えた」と発表した。AI運用の広がりが大量のエネルギー消費につながることが明らかになってきた。電力消費の多いデータセンターや、AIの基礎となる半導体製造のために膨大な水を使うなど、環境面での負荷は大きい。
無料会員登録はこちら
ログインはこちら