AI開発、二酸化炭素排出量は車の5倍

ニューズウィーク日本版 / 2019年6月14日 15時30分

<米マサチューセッツ大学アマースト校の研究者がAIを訓練する際に必要なエネルギー消費量と金銭的なコストを調査した......>

4つのニューラルネットワークで調査

近年の人工知能(AI)の発展は目覚ましい。人間の生活をどんどん便利にしてくれているAIだが、実はその開発の過程で大量の二酸化炭素を排出し、地球にやさしくないことが明らかになった。1つのAIを訓練する際の二酸化炭素排出量(カーボン・フットプリント)は、平均的な乗用車が製造から廃車までに排出する量の約5倍になるという。

英科学雑誌ニューサイエンティスト(電子版)によると、米マサチューセッツ大学アマースト校のエマ・ストラベル氏率いるチームはこのほど、AIを訓練する際に必要なエネルギー消費量と金銭的なコストを調査した。

対象としたAIは、自然言語処理(NLP)という、人間の言語を処理する技術に使われる大型のニューラルネットワーク4種類(Transformer、ELMo、BERT、GPT-2)だ。Transformerはオンライン翻訳の「グーグル翻訳」に使われているAIであり、GPT-2は、いくつかの文章を与えればあたかも本物の記事のように架空のニュース記事を書くAIだ。

AIを訓練するには、大量の文書を読ませ、言葉の意味や文章の構造を学ばせる必要がある。ストラベル氏のチームは、この作業を前述の4種類のAIについて行なった。1つのAIに1つのGPUを使って1日訓練させ、その際の電力消費量を測定した。

1日に必要な電力が分かったところで、それぞれのAIの開発者から報告された各AIの訓練に要する日数をかけ、訓練が完了するまでに必要な電力を算出。米国で発電する際の平均的な二酸化炭素排出量を使い、各AIの訓練にかかる二酸化炭素排出量をはじき出した。

精度が高いほど環境に負担

訓練に必要な電力は、AIのモデルやバージョンによって異なり、特にニューラル・アーキテクチャー・サーチ(NAS)という、精度を高める処理を行なった場合は時間がかかり、多くの電力を消費した。NASを使わなかった場合にTransformerを訓練するのに要した時間は84時間だったのに対し、NASを使った場合は27万時間以上かかった。ニューサイエンティストはこれだけ時間がかかる理由として、NASはより自然な言語を理解するために試行錯誤をして学習していくようデザインされているためだと説明している。

この記事に関連するニュース

トピックスRSS

ランキング