実際、マサチューセッツ大学アマースト校の研究チームによると、Googleの自然言語処理モデルBERTの訓練に必要なコンピューティングコストを二酸化酸素排出量に換算すると、旅客機でニューヨーク・サンフランシスコ間を往復するときに排出される二酸化炭素排出量とほぼ同等であるとのことです。つまりAIが気候変動のリスク要因になりえるのです。
企業にとってブランド価値を守り、高めていくために、AIも環境に影響を与える要因として目を向けておかなければならない時代に入ってきています。
AIのリスクなどを把握しAI戦略を策定するガバナンスも
第3のアプローチは、ガバナンスを通して効果的な「火消し」を実現するということです。
これまで述べてきたとおり、デジタル経済が進展した現在、AIを活用した戦略は一部門での先進的な実験にはとどまらず、全社戦略としてとらえるべきものとなっています。
一方、AIの開発やその利用においては知らない間にリスクを抱えていたという事態も起こりえます。したがって企業・組織全体でAIのリスクや倫理面での問題点を把握・判断し、AI戦略を策定・実行していくようなガバナンスが求められます。
これはAIを開発している研究開発部門だけの対応で済む話ではありません。経営層から現場まで全員が協調しながら建設的に意見を出し合える、自浄作用をもつとともに持続的な関係性、いわゆる「倫理的エコシステム」 とでもいうべき企業・組織内での協力関係が必要となります。重要なポイントは報告と対処チームです。
初動においては、誤報を恐れない姿勢が大切です。AIに関するリスクの発見が遅れて制御不能の状態に陥るよりも、誤報のほうがはるかにリスクが低いことを理解し、警報を鳴らすことを躊躇しないよう奨励する必要があります。またあわせて報告窓口も用意し、誰でもリスクや問題を提起できる環境を用意することも忘れてはなりません。
報告されたリスクや問題は「消防隊員」に引き継がれます。実際の消防隊員には火災に関する専門的な知識と消防のスキルが求められますが、AIの倫理的ガバナンスにおける「消防隊員」もそれと同様です。普段からAI倫理・ガバナンスについて適切なトレーニングを受け、影響評価およびリスク評価を行うツールとそれを使いこなすスキルを習得しておく必要があります。