強力なAIチャットボットの時代が到来すれば、世界は根本的に、そして予期せぬ形で変化する可能性は十分にありますが、それは莫大な環境コストを伴う可能性があります。スタンフォード大学人間中心人工知能研究所が本日発表した新たな報告書によると、世界的に有名なChatGPTを支えるOpenAIのGPT-3のようなAIモデルの学習に必要なエネルギー量は、平均的なアメリカ人の家庭に数百年分の電力を供給できるほどだと推定されています。この調査で検討された3つのAIモデルのうち、OpenAIのシステムは群を抜いて最も多くのエネルギーを消費しました。
スタンフォード大学が最近発表した人工知能指数で注目されているこの研究は、DeepMindのGopher、BigScience InitiativesのBLOOM、MetaのOPT、そしてOpenAIのGPT-3という4つのモデルの学習に伴う炭素コストを測定した最近の研究に基づいています。OpenAIのモデルは学習中に502トンの炭素を排出したと報告されています。これはGopherの1.4倍、BLOOMの20.1倍という驚異的な数値です。GPT-3は1,287MWhと、最も多くの電力を消費しました。

各モデルのエネルギー消費量は、トレーニングに使用されたデータポイント(パラメータ)の量や、それらが収容されているデータセンターのエネルギー効率など、さまざまな要因によって決定されました。エネルギー消費量には大きな違いがあるにもかかわらず、4つのモデルのうち3つ(DeepMindのGopherを除く)は、約1,750億個のパラメータでトレーニングされました。OpenAIは、新しくリリースされたGTP-4が何個のパラメータでトレーニングされているかを明らかにしていませんが、モデルの以前のバージョン間で必要なデータ量が大幅に増加していることを考えると、GTP-4は以前のバージョンよりもさらに多くのデータを必要とすると想定しても間違いないでしょう。あるAI愛好家は、GPT-4は100兆個のパラメータでトレーニングできると推定しましたが、OpenAIのCEOであるサム・アルトマンはその後、この数字を「全くのでたらめ」としています。
これは私にとっては恐ろしい映像です。
最初のドットは、Chat GPT 3 がトレーニングされたデータの量です。
2 つ目は、チャット GPT 4 が何に基づいてトレーニングされるかです。
彼らはすでにデモを行っています。
1 つのプロンプトから 60,000 語の本を書くことができます。
AIについて私が抱いていた唯一の疑問… pic.twitter.com/DnAEMm60lh
— アレックス・ホルモジ (@AlexHormozi) 2023 年 1 月 10 日
「環境への影響を全く考慮せずに規模を拡大していくと、機械学習モデルによって良いことよりも悪いことが起こりかねません」と、スタンフォード大学の研究者ピーター・ヘンダーソン氏は昨年述べた。「私たちは、そうした影響を可能な限り軽減し、社会全体に良い影響をもたらしたいと考えています。」
AIモデルは間違いなく大量のデータを必要としますが、スタンフォード大学の報告書は、それが必ずしも環境災害の前兆となるかどうかを判断するには時期尚早かもしれないと指摘しています。将来的には、強力なAIモデルがデータセンターなどの環境におけるエネルギー消費の最適化に活用される可能性があります。例えば、3ヶ月にわたる実験では、DeepMindのBCOOLERエージェントは、Googleデータセンターで約12.7%のエネルギー削減を達成しながら、建物内を人々が快適に作業できる温度に保つことに成功しました。
AIの環境コストは暗号通貨の気候ジレンマを反映している
もしこれらすべてに聞き覚えがあるとしたら、それは数年前、テクノロジー界の最後の大きなブームである暗号通貨とWeb3において、基本的に同じ環境ダイナミクスが展開されたのを目にしたからです。当時、ビットコインはプルーフ・オブ・ワーク(PoW)モデルにおけるコインマイニングに膨大なエネルギーが必要だったため、業界の明らかな環境問題として浮上しました。ある推計によると、ビットコインだけでもノルウェーの年間電力消費量を上回るエネルギーを毎年消費しているとのことです。
しかし、環境活動家からの長年の批判を受け、暗号資産業界はいくつかの変化を遂げました。ブロックチェーン上で2番目に大きな通貨であるイーサリアムは、昨年正式にプルーフ・オブ・ステーク(PoS)モデルに移行しました。支持者によると、これにより電力消費量が99%以上削減される可能性があるとのことです。他の小規模コインも同様にエネルギー効率を考慮して設計されています。全体的な視点から見ると、大規模言語モデルはまだ初期段階にあり、その環境パフォーマンスがどのような結果をもたらすかは不透明です。
大規模言語モデルは途方もなく高価になっている

新しいLLMの登場で急騰しているのはエネルギー要件だけではありません。価格も同様です。OpenAIが2019年にGPT-2をリリースした際、スタンフォード大学の報告書によると、15億のパラメータで構築されたモデルの学習コストはわずか5万ドルでした。そのわずか3年後、Googleは5400億のパラメータで学習させた独自の強力なPaLMモデルを発表しました。このモデルの学習コストは800万ドルです。報告書によると、PaLMはGPT-2の約360倍の大きさでしたが、学習コストは160倍でした。繰り返しますが、OpenAIであれGoogleであれ、これらのモデルはますます大規模になっています。
「全体的に、大規模言語およびマルチモーダルモデルはより大規模かつ高価になっている」とレポートは指摘している。
こうした資金は、経済全体に波及効果をもたらす可能性があります。スタンフォード大学は、2022年の世界全体のAIへの民間投資額は2013年の18倍に上ると推定しています。米国でも、あらゆるセクターにおけるAI関連の求人件数はついに増加しており、2022年には1.7%から1.9%に増加しました。世界規模で見ると、米国はAIへの総投資額において依然として比類のない存在であり、2022年にはAI技術に474億ドルを投資したと報じられています。これは、次に支出額が多い中国の3.5倍に相当します。資金の浪費に関しては、米国は比類のない存在です。
議員らは追いつこうとしている
強力なチャットボットの登場と、それをめぐる倫理的・法的問題の波は、AIエンジニア以外のほぼすべての人々、そして議員にも忍び寄ってきました。議員たちはゆっくりと、しかし確実に、立法面での追い上げを図っています。スタンフォード大学の報告によると、2021年にはAIに関する連邦法案のうち、実際に成立したのはわずか2%でした。この数字は昨年10%にまで上昇しました。これらの法案の多くは、GPT4をめぐる現在の騒動や、一部の研究者がGPT4を「汎用人工知能」と時期尚早に表現する以前に作成されました。
立法者もこれまで以上にAIへの関心を高めています。スタンフォード大学は、2022年に米国の連邦裁判所および州裁判所に提起されたAI関連の訴訟を110件特定しました。それほど多くないように思えるかもしれませんが、それでも2016年の6.5倍に相当します。これらの訴訟の大部分は、カリフォルニア州、イリノイ州、ニューヨーク州で発生しました。これらのAI訴訟の約29%は民事訴訟、19%は知的財産権訴訟でした。作家やアーティストがAIジェネレーターによる自身の作風の流用に対して最近申し立てた苦情を参考にすると、今後は知的財産権訴訟の割合が増加する可能性があります。
AI、チャットボット、そして機械学習の未来についてもっと知りたいですか?人工知能に関する当社の記事をぜひご覧ください。また、「最高の無料AIアートジェネレーター」や「OpenAIのChatGPTについて私たちが知っていることすべて」といったガイドもご覧ください。