Boom budowy centrów danych a transformacja energetyczna

Boom budowy centrów danych napędzany sztuczną inteligencją radykalnie zmienia krajobraz energetyczny, gospodarczy i społeczny, a „boom centrów danych” coraz mocniej wpływa na rachunki za prąd, planowanie sieci i życie lokalnych społeczności.
.„Boom centrów danych” to nie metafora, lecz twarde liczby. Według raportu Lawrence Berkeley National Laboratory centra danych zużywały ok. 4,4% energii elektrycznej w USA w 2023 r., a do 2028 r. mogą odpowiadać już za 6,7–12% krajowego zużycia energii. Oznacza to potencjalne podwojenie lub niemal potrojenie zapotrzebowania w zaledwie pięć lat z 176 TWh w 2023 r. do nawet 580 TWh w 2028 r. Równolegle wydatki na budowę centrów danych w USA wzrosły w latach maj 2023–maj 2024 o blisko 70%, co czyni ten segment najszybciej rosnącą kategorią nieruchomości komercyjnych. Za tym stoją rosnące wymagania AI: trenowanie dużych modeli oznacza dziesiątki tysięcy procesorów graficznych (GPU) działających bez przerwy przez dni lub tygodnie, a pojedyncze układy AI mogą zużywać 10–14 razy więcej energii niż klasyczne procesory.
Georgia jest jednym z globalnych hubów centrów danych związanych z AI. Według raportu American Edge Project zajmuje czwarte miejsce na świecie, z 4,6 mld USD kapitału wysokiego ryzyka ulokowanego w 368 transakcjach AI. W takich miejscach jak hrabstwo DeKalb rosnące skupisko serwerowni oznacza nowe inwestycje i miejsca pracy, ale też presję na lokalną infrastrukturę: konieczność rozbudowy sieci, większe zużycie wody i spory o to, kto finansuje modernizację. Doświadczenia z Wirginii pokazują, że duże klastry centrów danych mogą w krótkim czasie podbić rachunki za energię o kilka procent, a w dłuższym horyzoncie nawet o kilkadziesiąt procent, jeśli koszty wzmocnienia sieci są przerzucane na wszystkich odbiorców. W odpowiedzi regulatorzy, jak Komisja ds. Usług Publicznych w Georgii, zaczynają wymagać, by nowi odbiorcy o bardzo dużym poborze mocy pokrywali większą część kosztów rozbudowy infrastruktury, zamiast rozsmarowywać je po całym rynku.
Z perspektywy makroekonomicznej efekty AI na zużycie energii wydają się na razie niewielkie: badania cytowane w Environmental Research Letters szacują, że aktywność związana z AI może podnosić roczne zużycie energii w USA o ok. 0,03%, a emisje CO₂ o ok. 0,02%. Problem polega jednak na nierównomierności. Obciążenie nie rozkłada się równomiernie, lecz koncentruje w kilku regionach, gdzie sieć i ekosystem są wystawione na gwałtowny wzrost zapotrzebowania. Jednocześnie międzynarodowe analizy, m.in. Międzynarodowej Agencji Energetycznej, przewidują, że globalne zużycie energii przez centra danych może się co najmniej podwoić do 2030 r., osiągając ok. 945 TWh rocznie, co wymaga ponad 450 TWh dodatkowej produkcji z OZE, by nie wyhamować transformacji energetycznej. Część wzrostu da się złagodzić optymalizacją. Prace nad inteligentnym harmonogramowaniem obciążeń serwerów pokazują potencjał redukcji zużycia energii o 4–12% przy zachowaniu tej samej mocy obliczeniowej, co w skali kraju oznacza dziesiątki TWh różnicy.
.Wzrost zapotrzebowania na energię o ok. 25% do 2030 r., napędzany równocześnie przez centra danych, elektromobilność i elektryfikację ogrzewania, nakłada się na starzejącą się infrastrukturę, wiele transformatorów i linii w USA ma po kilkadziesiąt lat. Dlatego samo dokładanie kolejnych megawatów mocy obliczeniowej bez modernizacji sieci zwiększa ryzyko awarii, przerw w dostawach i konieczność kosztownych inwestycji „na szybko”, które ostatecznie płacą odbiorcy.
Szymon Ślubowski



