AI開発で避けられないCO₂大量排出の真実 電力消費で排出する量は乗用車5倍の結果も

拡大
縮小

訓練に必要な電力は、AIのモデルやバージョンによって異なり、特にニューラル・アーキテクチャー・サーチ(NAS)という、精度を高める処理を行なった場合は時間がかかり、多くの電力を消費した。NASを使わなかった場合にTransformerを訓練するのに要した時間は84時間だったのに対し、NASを使った場合は27万時間以上かかった。

ニューサイエンティストはこれだけ時間がかかる理由として、NASはより自然な言語を理解するために試行錯誤をして学習していくようデザインされているためだと説明している。

前述の4つのニューラルネットワークのうち、もっとも電力を消費したのがNASを使った場合のTransformerで、二酸化炭素排出量は284トン。これは平均的な乗用車が製造から耐用年数分の使用と廃棄までの全過程で排出する二酸化炭素量(約57トン)の約5倍になる。

NASを使用しなかった場合に最も二酸化炭素を多く排出したAIはBERTで、排出量は約0.63トン。米マサチューセッツ工科大学(MIT)を母体とする科学メディア、MITテクノロジーレビューは、飛行機でニューヨークからサンフランシスコを1往復した時に排出される二酸化炭素量に近いとしている。

「環境への影響がここまであるとは思っていなかった」

スペインのア・コルーニャ大学のコンピュータ科学者であるカルロス・ゴメス・ロドリゲス氏(今回の調査には参加していない)はMITテクノロジーレビューに対し、「おそらく多くのコンピュータ科学者は、こうしたことを漠然と考えていたとは思う。しかしこの数字は問題の大きさを表している。私自身も、私が話を聞いた他のリサーチャーも、環境への影響がここまであるとは思っていなかった」と話した。

MITテクノロジーレビューは、実際のAI開発は新しいモデルをゼロから作ったり、既存モデルに新しいデータセットを適用させたりするため、現実的にはもっと多くの訓練と調整が必要となるとし、数値に表れているよりも多くの二酸化炭素を排出することを示唆している。

ストラベル氏は今回の調査結果を、7月にイタリアで開催されるコンピューター言語学会の年次総会で発表する予定だ。

「ニューズウィーク日本版」ウェブ編集部

世界のニュースを独自の切り口で伝える週刊誌『ニューズウィーク日本版』は毎週火曜日発売、そのオフィシャルサイトである「ニューズウィーク日本版サイト」は毎日、国際ニュースとビジネス・カルチャー情報を発信している。CCCメディアハウスが運営。

この著者の記事一覧はこちら
関連記事
トピックボードAD
政治・経済の人気記事
トレンドライブラリーAD
連載一覧
連載一覧はこちら
人気の動画
【田内学×後藤達也】新興国化する日本、プロの「新NISA」観
【田内学×後藤達也】新興国化する日本、プロの「新NISA」観
【田内学×後藤達也】激論!日本を底上げする「金融教育」とは
【田内学×後藤達也】激論!日本を底上げする「金融教育」とは
TSUTAYAも大量閉店、CCCに起きている地殻変動
TSUTAYAも大量閉店、CCCに起きている地殻変動
【田内学×後藤達也】株高の今「怪しい経済情報」ここに注意
【田内学×後藤達也】株高の今「怪しい経済情報」ここに注意
アクセスランキング
  • 1時間
  • 24時間
  • 週間
  • 月間
  • シェア
会員記事アクセスランキング
  • 1時間
  • 24時間
  • 週間
  • 月間
トレンドウォッチAD
東洋経済education×ICT