AI開発、二酸化炭素排出量は車の5倍

ニューズウィーク日本版 / 2019年6月14日 15時30分

<米マサチューセッツ大学アマースト校の研究者がAIを訓練する際に必要なエネルギー消費量と金銭的なコストを調査した......>

4つのニューラルネットワークで調査

近年の人工知能(AI)の発展は目覚ましい。人間の生活をどんどん便利にしてくれているAIだが、実はその開発の過程で大量の二酸化炭素を排出し、地球にやさしくないことが明らかになった。1つのAIを訓練する際の二酸化炭素排出量(カーボン・フットプリント)は、平均的な乗用車が製造から廃車までに排出する量の約5倍になるという。

英科学雑誌ニューサイエンティスト(電子版)によると、米マサチューセッツ大学アマースト校のエマ・ストラベル氏率いるチームはこのほど、AIを訓練する際に必要なエネルギー消費量と金銭的なコストを調査した。

対象としたAIは、自然言語処理(NLP)という、人間の言語を処理する技術に使われる大型のニューラルネットワーク4種類(Transformer、ELMo、BERT、GPT-2)だ。Transformerはオンライン翻訳の「グーグル翻訳」に使われているAIであり、GPT-2は、いくつかの文章を与えればあたかも本物の記事のように架空のニュース記事を書くAIだ。

AIを訓練するには、大量の文書を読ませ、言葉の意味や文章の構造を学ばせる必要がある。ストラベル氏のチームは、この作業を前述の4種類のAIについて行なった。1つのAIに1つのGPUを使って1日訓練させ、その際の電力消費量を測定した。

1日に必要な電力が分かったところで、それぞれのAIの開発者から報告された各AIの訓練に要する日数をかけ、訓練が完了するまでに必要な電力を算出。米国で発電する際の平均的な二酸化炭素排出量を使い、各AIの訓練にかかる二酸化炭素排出量をはじき出した。

精度が高いほど環境に負担

訓練に必要な電力は、AIのモデルやバージョンによって異なり、特にニューラル・アーキテクチャー・サーチ(NAS)という、精度を高める処理を行なった場合は時間がかかり、多くの電力を消費した。NASを使わなかった場合にTransformerを訓練するのに要した時間は84時間だったのに対し、NASを使った場合は27万時間以上かかった。ニューサイエンティストはこれだけ時間がかかる理由として、NASはより自然な言語を理解するために試行錯誤をして学習していくようデザインされているためだと説明している。

前述の4つのニューラルネットワークのうち、もっとも電力を消費したのがNASを使った場合のTransformerで、二酸化炭素排出量は284トン。これは平均的な乗用車が製造から耐用年数分の使用と廃棄までの全過程で排出する二酸化炭素量(約57トン)の約5倍になる。

NASを使用しなかった場合に最も二酸化炭素を多く排出したAIはBERTで、排出量は約0.63トン。米マサチューセッツ工科大学(MIT)を母体とする科学メディア、MITテクノロジーレビューは、飛行機でニューヨークからサンフランシスコを1往復した時に排出される二酸化炭素量に近いとしている。

スペインのア・コルーニャ大学のコンピュータ科学者であるカルロス・ゴメス・ロドリゲス氏(今回の調査には参加していない)はMITテクノロジーレビューに対し、「おそらく多くのコンピュータ科学者は、こうしたことを漠然と考えていたとは思う。しかしこの数字は問題の大きさを表している。私自身も、私が話を聞いた他のリサーチャーも、環境への影響がここまであるとは思っていなかった」と話した。

MITテクノロジーレビューは、実際のAI開発は新しいモデルをゼロから作ったり、既存モデルに新しいデータセットを適用させたりするため、現実的にはもっと多くの訓練と調整が必要となるとし、数値に表れているよりも多くの二酸化炭素を排出することを示唆している。

ストラベル氏は今回の調査結果を、7月にイタリアで開催されるコンピューター言語学会の年次総会で発表する予定だ。

松丸さとみ

この記事に関連するニュース

トピックスRSS

ランキング