R E K L A M A
R E K L A M A

Sztuczna, więc lepsza? Ciemna strona AI

Gigantyczne hale z migającymi diodami, brzęczeniem wentylatorów i metalicznym szumem, który nigdy nie cichnie – serce współczesnej sztucznej inteligencji. Na obrzeżach miast mnożą się dziś jak grzyby po deszczu centra danych – nowe katedry ery cyfrowej.

Fot. Pixabay

Projekt Stargate, wspierany przez Donalda Trumpa, oraz inwestycje gigantów: Microsoft, Meta i Amazon zwiastują nadejście epoki potężnych instalacji, mających napędzać rozwój AI. Ale każdy z tych obiektów zużywa tyle energii, wody i generuje tyle hałasu, że pojawia się pytanie: za jaką cenę?

Pod koniec 2025 roku trudno już zliczyć, ile dokładnie centrów danych dedykowanych sztucznej inteligencji działa na świecie. Wiele dawnych obiektów jest modernizowanych, by udźwignąć obciążenie generowane przez modele AI. Według danych Straits Research w marcu 2025 roku w USA funkcjonowało ich 5426. Największy obiekt tego typu znajduje się w Chinach, ale jeśli istnieje stolica tego cyfrowego imperium, to bez wątpienia jest nią północna Wirginia. To tutaj, w okolicach miasteczka Ashburn, na tzw. Data Center Alley, przez serwery przepływa około 70 proc. światowego ruchu internetowego. Wraz z rozwojem infrastruktury rośnie jednak niezadowolenie mieszkańców. W kompleksie Dulles, 200 metrów od serwerowni Amazona, śpiew ptaków zagłusza jednostajny szum generatorów.

Centra danych to w istocie ogromne metalowe lub aluminiowe hale otoczone wysokimi ogrodzeniami. Na dachach – systemy wentylacyjne, bez przerwy chłodzące setki serwerów pracujących na pełnych obrotach. Cały proces nadzorują dziesiątki kamer, a w środku rzędy maszyn wykonują obliczenia, trenują modele sztucznej inteligencji i przechowują cyfrowe życie: konta w mediach społecznościowych, zdjęcia, nagrania wideo. Wszystkie te serwery, systemy chłodzenia i pompy wodne potrzebują gigantycznych ilości prądu. W samej Wirginii centra danych pochłonęły już w 2023 roku prawie jedną czwartą energii elektrycznej całego stanu.

Największe obiekty zużywają ponad 2 TWh rocznie – tyle, ile potrzeba do zasilania 200 000 domów. Produktem ubocznym zużycia energii jest ciepło. W wielu centrach masywne systemy chłodzenia zasysają gorące powietrze, a następnie przepuszczają je przez klimatyzatory w ciągłym obiegu. Najczęściej używa się zimnej wody do absorpcji ciepła i jego odprowadzania. Systemy chłodzenia i wentylatory emitują nieustanny szum. Choć poziom hałasu mieści się w granicach przemysłowych norm, to normy te nigdy nie przewidywały pracy 24/7.

W 2024 roku obiekty te zużyły globalnie około 415 TWh energii, czyli 1,5 proc. światowego zapotrzebowania – tyle, ile wynosi roczne zużycie prądu przez Francję. USA wciąż jest globalnym liderem pod względem liczby centrów danych, ale Europa nie zamierza pozostawać w tyle. W 2024 roku europejskie centra danych pochłonęły 70 – 96 TWh, czyli 2 – 3 proc. całkowitego zużycia na kontynencie. W lutym przewodnicząca Ursula von der Leyen ogłosiła inicjatywę InvestAI – 200 mld euro inwestycji, w tym 20 mld euro na budowę gigafabryk sztucznej inteligencji.

Według „Nature” fabryki danych obsługujące AI zużywają około 560 miliardów litrów wody rocznie. Tyle pomieści 224 000 basenów olimpijskich. Do 2027 roku liczba ta może wzrosnąć nawet sześciokrotnie, osiągając 6,6 miliarda metrów sześciennych (to roczne zużycie wody przez całą Danię). Około 40 proc. wody zużywane jest bezpośrednio w procesach chłodzenia, a 60 proc. pośrednio – w produkcji energii i chipów. Największe jednostki potrafią pochłonąć nawet 19 milionów litrów dziennie. Tyle, ile średnie miasto.

Do tego zwykle buduje się je w klimacie suchym lub półsuchym, bo to preferowane środowisko dla serwerów, a firmy technologiczne chętnie budują obiekty na terenach pustynnych, korzystając z ulg podatkowych i taniej energii. Do 2030 roku połowa amerykańskich centrów danych ma działać w regionach dotkniętych stresem wodnym.

Każde zapytanie do Chata GPT czy innego modelu generatywnego AI uruchamia energochłonne procesy obliczeniowe. Według Goldman Sachs jedno zapytanie zużywa ok 0,0029 kWh, czyli 10 razy więcej niż tradycyjne wyszukiwanie w Google. Jeśli co dziesiąty Amerykanin używałby GPT-4 raz w tygodniu przez rok, zużycie energii wyniosłoby tyle, ile potrzeba do zasilenia wszystkich gospodarstw w Waszyngtonie przez 20 dni.

Badania Uniwersytetu Kalifornijskiego w Riverside pokazują, że wygenerowanie 100 słów przez Chat GPT- 4 może pochłonąć około pół litra wody. Każde „dziękuję” i „cześć” skierowane do AI ma więc swój energetyczny i wodny koszt.

Cyfrowa rewolucja nie wydarza się w chmurze. Dzieje się tu, na ziemi. I choć sztuczna inteligencja może zmienić świat, warto pamiętać, że nawet najbardziej wirtualna technologia ma fizyczne konsekwencje. 

2025-11-29

(MH) Na podst.: cnbc.com, forbes.n1info.rs, washingtonpost.com, nature.com