AIの急速な進化は、われわれの日常生活や産業を大きく変えつつある。しかし、その裏でAIを支えるインフラストラクチャであるデータセンターにも大きな変革が求められている。
【画像】冷却に水を使用しない次世代データセンター (出所: Microsoft公式Webサイト)
AIワークロードの膨大なデータを処理する計算リソース、そしてこれに伴うエネルギーや資源の問題がそうだ。この問題を解決するため、データセンターは、新たな設計思想と技術革新を必要としている。
本稿では、AIの進化に伴うエネルギー需要とデータセンター技術に関する動向に触れ、今後の展望について考察したい。
●AI需要で増加するエネルギー消費量と、これに伴う社会への影響
|
|
AI需要の高まりによって、国内外でデータセンターの建設ラッシュが起きている。12月4日にはMetaがAI向けに100億ドル規模のデータセンターを米ルイジアナ州に建設する計画を発表した。このようなデータセンターの建設ラッシュは、データセンター事業者やサーバベンダーにとっては特需であるが、さまざまな環境や社会への影響についても配慮が求められる。
まず考えられるのは、気候変動への影響である。AIを使うためには多くの電力が必要となるが、その電力を火力発電でまかなうと、二酸化炭素などの温暖化ガスの排出量が増加する。
国連の報告書「Greening Digital Companies 2024」によれば、AIの開発者でもある米大手クラウドプロバイダー(Google、Microsoft、Amazon)では、操業時の温室効果ガス排出量が2020年から2023年で62%増加したと報告している。
また、データセンターのエネルギー使用量増加によって、発電所の電力供給を圧迫することを防ぐため、規制当局などが介入する事例も発生している。
米テキサス州の電力規制当局では、AIデータセンターを建設しようとする企業に対して、独自に発電所も新たに建設することを提案するメッセージを大手テクノロジー企業に対して送った。また、米連邦エネルギー規制委員会は、ペンシルベニア州で原子力発電所からデータセンターへの電力供給拡大に対して、送電網への影響などを理由に却下した事例もある。
|
|
また、データセンターは、冷却用の水も消費する。特に従来の空冷システムでは大量の水を必要とする。空冷でなぜ水が必要なのか。データセンターでは、空調機から冷たい空気を送ってサーバルームを冷やす。冷たい空気はサーバの熱を奪い温かい空気となって空調機に回収される。空調機内では、この温かい空気の熱は水に移されて温水となる。温水は冷却塔へと運ばれ、冷却塔内にあるコイルを通る。このコイルに散布水をかけると、一部の水が蒸発し、気化熱の原理を利用して温水を冷却するため、散布水は補充し続ける必要がある。
米バージニア州にあるデータセンターの集積地では、5年間で水消費量が約6割増加したと英フィナンシャル・タイムズ紙が報じている。
このように、データセンター運営には電力や水といったエネルギーや資源を大量に消費するため、環境に配慮したエネルギーの確保や、データセンターのエネルギー利用を効率化する方法などが求められる。
次に具体的な課題への取り組みについてみていく。
●電力の消費拡大に対する取り組み
|
|
前述した米大手クラウドプロバイダーのような大規模なデータセンターを運営するクラウド企業では、脱炭素に関しても先進的に取り組んでおり、温暖化ガスを排出しない電力を確保しようとしている。
そのため、大手クラウドプロバイダー各社は、原子力発電所との契約や次世代の原子力発電である「小型モジュール炉(SMR)」への投資などを相次いで行っている。データセンターでは、24時間365日の安定稼働と、大規模な電力が求められることも原発が注目される要因の一つと考えられる。
一方で、原発だけで十分な電力量が確保できるかには疑問がある。電力市場などを専門とする米コンサルティング会社Grid Strategiesが出した試算結果によれば、生成AIなどの登場で電力需要は増大傾向で、米国のピーク時の電力需要が、2023年から2028年までの間に38ギガワット増加すると予測している。これはスリーマイル島原発1号機の約46基分に相当する。
2024年1月時点で米国で稼働している原発が93基であることを考えると、5年程度でその約半数の原発を新たに稼働させるのは高いハードルといえる。従って、新たな電力源の確保だけでは不十分と考えられるため、データセンター内の電力効率化の技術開発にも着目したい。
注目される技術の一つが、AIの処理に特化させて高効率化させたプロセッサである。米AIスタートアップEtchedはChatGPTなどで採用されるTransformerアーキテクチャに特化したASIC(Application Specific Integrated Circuit: 特定用途向け集積回路)であるSohuを発表した。
Sohuは、画像処理や音声処理、従来型のAI計算(リカレントニューラルネットワークなど)なども実行できないが、Transformerに特化させることでNVIDIA GPU「H100」よりも20倍以上高速で、消費電力も抑えられるとしている。
その他にも、Cerebras CS2、Groq LPU、Google TPU、AWS Trainium/Inferentiaなど、ASICアーキテクチャのAIチップが登場してきており、性能だけでなく消費電力の観点でも注目される技術である。
次に、データセンターの冷却方式を見直すことによる電力効率改善も注目されている。現在は、空冷が主流であるが、消費電力の観点では課題がある。送風機に使う電力が大きい点や、サーバの冷却効率が低い点などだ。
特にGPUのような筐体(きょうたい)あたりの発熱量が大きい機器に対しては、空冷の限界が見えつつある。そこで、サーバラック内の配管に冷却水を送る「液冷」や、絶縁性の液体にサーバを浸して直接冷却する「液浸」などが今後の候補となる。
国内のデータセンターにおいても、NTTコミュニケーションズがサーバのヒートシンク(GPUなどのチップからの熱を放熱するためにつけられている部品)へ直接液体を供給する「直接液冷」を採用したデータセンターサービス「Green Nexcenter」を2025年3月より提供を開始する計画である。
●AI需要に伴う水利用量の増加に対する取組み
水の消費量削減の観点でも冷却方式の見直しは重要である。前述したように従来の空冷システムでは、冷却水の一部が蒸発することで大量の水を消費する課題があった。Microsoftは、「クローズドループシステム」という設計を採用し、水が蒸発しないようにしながら冷却を行うデータセンターを発表した。これにより、新しい水を補給する必要がないため、年間1億2500万リットルほどの水使用を削減できるとのことだ。
●データセンターの今後
先に挙げた、米テキサス州電力規制当局や、米連邦エネルギー規制委員会の事例以外にも、規制によってデータセンター側へ改善を求める動きは欧州でも始まっている。
欧州委員会は、Energy Efficiency Directive(EED)を改正し、データセンター事業者にエネルギー使用量や効率の実績開示を求める制度整備を要請した。また、ドイツではEEDで求められる情報開示の項目に加えて、独自にデータセンターの効率要件を定めている。
今後もAI向けのデータセンター新設やエネルギー消費の増大の流れを考えると、同様な規制の動きは、世界各国で広まっていくと考えられる。
データセンターは、AIによる革新の基盤として重要な役割を担っている。これまでも、再生可能エネルギーの利用や効率的な冷却技術の導入などにより、環境や社会へ配慮した運営を実現してきたが、今後も登場する先進技術を支えるべく、データセンターにおいても技術革新が求められる。持続可能な運営に向けて、データセンター産業は大きな転機を迎えているといえる。
●著者プロフィール:坂下 悠貴(さかした ゆうき)
野村総合研究所 IT基盤技術戦略室 エキスパートストラテジスト。クラウドおよびITインフラ領域での研究開発を大手メーカー研究所で経験後、2021年より現職。技術戦略策定、研究開発推進、新規事業企画などに従事し、技術革新を推進する役割を担っている。
|
|
|
|
Copyright(C) 2024 ITmedia Inc. All rights reserved. 記事・写真の無断転載を禁じます。
掲載情報の著作権は提供元企業に帰属します。