AI開発で避けられないCO₂大量排出の真実 電力消費で排出する量は乗用車5倍の結果も
訓練に必要な電力は、AIのモデルやバージョンによって異なり、特にニューラル・アーキテクチャー・サーチ(NAS)という、精度を高める処理を行なった場合は時間がかかり、多くの電力を消費した。NASを使わなかった場合にTransformerを訓練するのに要した時間は84時間だったのに対し、NASを使った場合は27万時間以上かかった。
ニューサイエンティストはこれだけ時間がかかる理由として、NASはより自然な言語を理解するために試行錯誤をして学習していくようデザインされているためだと説明している。
前述の4つのニューラルネットワークのうち、もっとも電力を消費したのがNASを使った場合のTransformerで、二酸化炭素排出量は284トン。これは平均的な乗用車が製造から耐用年数分の使用と廃棄までの全過程で排出する二酸化炭素量(約57トン)の約5倍になる。
NASを使用しなかった場合に最も二酸化炭素を多く排出したAIはBERTで、排出量は約0.63トン。米マサチューセッツ工科大学(MIT)を母体とする科学メディア、MITテクノロジーレビューは、飛行機でニューヨークからサンフランシスコを1往復した時に排出される二酸化炭素量に近いとしている。
「環境への影響がここまであるとは思っていなかった」
スペインのア・コルーニャ大学のコンピュータ科学者であるカルロス・ゴメス・ロドリゲス氏(今回の調査には参加していない)はMITテクノロジーレビューに対し、「おそらく多くのコンピュータ科学者は、こうしたことを漠然と考えていたとは思う。しかしこの数字は問題の大きさを表している。私自身も、私が話を聞いた他のリサーチャーも、環境への影響がここまであるとは思っていなかった」と話した。
MITテクノロジーレビューは、実際のAI開発は新しいモデルをゼロから作ったり、既存モデルに新しいデータセットを適用させたりするため、現実的にはもっと多くの訓練と調整が必要となるとし、数値に表れているよりも多くの二酸化炭素を排出することを示唆している。
ストラベル氏は今回の調査結果を、7月にイタリアで開催されるコンピューター言語学会の年次総会で発表する予定だ。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら