AIデータセンターにおける電力需要増が深刻化している。
This image generated by Adobe Firefly 2.0
米資産運用大手アライアンス・バーンスタイン(AllianceBernstein)のブローカー・ディーラー部門で、株式市場調査を顧客企業に提供するバーンスタイン・リサーチ(Bernstein Research)によれば、米国内のAIデータセンターにおける電力需要が急速に増加しており、このまま特段の対応策を取らなければ、2年以内に供給を上回る可能性があるという。
ジェネレーティブ(生成)AIの台頭により、あらゆる予測計算の根拠となる変数の値が急速に変わりつつある中、電力需要に関する予測も(それがたとえ実績のある調査研究機関によるものだとしても)鵜呑みにすることはできない。
一定期間内に発生する推論(=モデルを使用してクエリに対する回答を生成するプロセス)要求の数、要求される推論の複雑さ、回答生成に使われるモデルのサイズ(=パラメーター数)、モデルの処理に使用されるチップやサーバーの性能、そうした全ての要素が電力消費の計算結果に影響を及ぼすからだ。
バーンスタインによる今後2年間の電力消費予測は、AIモデルを使用した推論数が2030年までにグーグル検索と同水準、すなわち「1日当たりの検索数100億回、回答に要する平均単語数375ワード」を前提としている。
同社が顧客向けに作成した7月1日付のレポートによれば、OpenAIの対話型AI「ChatGPT」を使って検索クエリの回答を得るには、グーグル検索のおよそ10倍の計算処理能力が必要になるという。
電力需要増に歯止めはかかるのか
AIモデルの学習(トレーニング)と推論に使用されるGPU(画像処理装置)は、従来のCPU(中央処理装置)より発熱量が多い。また、AIサーバーのラック1台当たりの消費電力は従来のラックの3倍にもなる。
一方、過去10年間を振り返ると、個人のインターネットの利用は順調に拡大し、企業にはクラウドコンピューティングが急速に浸透したのに、米国の総発電電力量はほとんど伸びていない。
データセンターの全体的なエネルギー効率もほとんど改善されていない。
したがって、送電網の容量増強や効率向上を手がけるもしくはサポートする企業にとっては、今こそ「一世代に一度のビジネスチャンス」というのがバーンスタインのアナリストチームの主張だ。
とは言え、後から振り返ってみれば、AIは爆発的に普及したけれども電力需要は予想されたほど伸びなかった、そんな展開も考えられる。ただしその場合には、ハードウェアとソフトウェアが急速に発展して顕著な効率向上が実現し、より少ない電力でより大きな計算処理を実行できるようになっていることだろう。
バーンスタイン・リサーチの既出の予測も、計算処理能力に必要とされる電力消費量は着実に改善されて(減って)いくとの前提に立つ。
コンピューティングパワーを支えるGPU市場をほぼ独占するエヌビディア(Nvidia)のジェンスン・フアン最高経営責任者(CEO)も、ことあるごとに同社製GPUの効率向上を喧伝してきた。
ただ、計算効率がいかに向上したところで、それは処理要求当たりの電力網への負荷を低減できるにすぎない。そうした効率化にも関わらず、AIの普及活用が拡大するにつれ、電力需要は全体として難なく増大に向かうだろう。
なお、エヌビディアは近頃、データセンター向けの高効率液冷ソリューションを手がけるバーティブ(Vertiv)との提携を発表し、新たなGPUの市場投入による電力需要の増加に対応していく考えを明らかにしている。
AI開発企業は今後どう動くのか
AIコンピューティングインフラの今後を考える上で重要なのは、総電力消費量だけではない。
常時高い稼働率が続く上、大規模なモデルをトレーニングする際には稼働率がさらに高まるといったデータセンター特有の電力需要のあり方や、チップ冷却の必要といった視点も無視できない。
AI学習・推論向けのオンデマンドGPUクラウドを提供するラムダ・ラブズ(Lambda Labs)のミテシュ・アグラワル最高執行責任者(COO)はこう強調する。
「稼働中の利用可能なデータセンターがあるとしても、高密度の電力負荷に対応していない仕様だったり、設備・機器の冷却要件を満たしていなかったりしたら、それは使えません」
「(当社がサービスで提供しているような)エヌビディアの最先端並びに次世代チップをデプロイするには、データセンター自体を適切に構成する必要があります」
アグラワル氏によれば、ラムダは目下、人口稠密エリアを回避して最新の液冷システムを採用したデータセンターの開設を進めているが、条件に合致するロケーションを確保するには少なくとも数か月、場合によっては数年かかる。将来はさらに困難になるかもしれない。
最大手クラウドプロバイダーのアマゾン(Amazon)は、自社運営するデータセンターの一部を原子力発電所の敷地内に建設することで、さまざまな条件のハードルをクリアしようとしている。
同社は3月、ペンシルベニア州北東部に位置するサスケハナ原発の敷地内にあるデータセンターを6億5000万ドルで購入する契約を締結。容量の増強を計画しており、数年後には隣接の原発と960MW(メガワット)規模の電力購入契約を結ぶという。
もし電力不足が現実になったら
さて、これから電力網を増強しても需要増に対応できなかったら、何が起きるのか。バーンスタイン・リサーチは、次に挙げる三つの展開を予測する。
第一に、データセンターの新設が遅延することで供給がタイト化し、モデルやチップの高効率化は進むにも関わらず、クラウドプロバイダーが提供するAIコンピューティングパワーのコストが高止まりする可能性がある。
第二に、米国内のコンピューティング需要に対応するデータセンターが国外に移転する可能性がある。可能性があると言っても、これはある意味ではすでに始まっている現象だ。
エヌビディアと直接競合する大型AIチップメーカー、セレブラス・システムズ(Cerebras Systems)のアンドリュー・フェルドマンCEOはこう語る。
「当社がアラブ首長国連邦(UAE)と提携している理由はまさにそれです。欧州各地でデータセンター建設が進んでいるのも同じ理由。南アフリカやケニア、ナイジェリア、エジプトもそうなのです」
「5年前の時点で、あなたがもし私に対して『アイスランドの1kWh(キロワット時)当たりの電力料金を把握しておく時代がいずれやって来る』などと語ったら、私は『あなたはどうかしてしまったんじゃないか』と言ったでしょう。
しかし、本当にその日は来ました。アイスランドの現在の1kWh当たり電気料金は4セントです。今や当社ではそうした話題が日常的に聞かれるようになっています」
第三に、データセンターの運営事業者が自社専用の原子力もしくは天然ガス発電所(設備)の増強に動く可能性がある。