Nieuchwytny ślad AI. Jak zmierzyć jej koszt energetyczny?

Big techy, współcześni giganci technologii, są przekonane, że korzyści, jakie może przynieść AI środowisku, uzasadniają jej koszty energetyczne. Jednak czy rzeczywiście przydatność AI dla ochrony klimatu może je przewyższyć?
Jak nowe technologie mogą pomóc w dążeniach do czystej energii? I, przede wszystkim, jak w ogóle zmierzyć, jak się okazuje niezwykle nieuchwytny, ślad energetyczny AI? Rewolucja trwa, badania są w toku, a tymczasem sztuczna inteligencja zarzuca sieci na całym świecie.
Świat potrzebuje energii bardziej niż kiedykolwiek
Jedna piąta całej energii elektrycznej zużywanej w Irlandii jest obecnie wykorzystywana do zasilania krajowych centrów danych, a jest to więcej, niż zużywają tamtejsze domy mieszkalne – wynika z analizy The Economist. Irlandia ma także jedną z najwyższych na świecie koncentracji mocy obliczeniowej na osobę – jedno centrum danych przypada na Zielonej Wyspie na 42 tys. osób.
Jednak hrabstwo Loudoun w stanie Wirginia w USA bije na głowę irlandzkie rekordy: w hrabstwie żyje 443 tys. osób tuż obok dziesiątek centrów danych. W 2022 r. szczytowe zużycie energii wyniosło tam prawie 3 GW, a pobór mocy, gdyby taki sam utrzymywał się przez cały rok, zbliżyłby się do całkowitego rocznego zużycia w Irlandii.
Na zasilanie centrów danych, koniecznych do pracy sztucznej inteligencji, zużywane jest 1 do 2 proc. światowej energii elektrycznej. Goldman Sachs szacuje, że zużycie energii związane z AI może zwiększyć globalne zapotrzebowanie na energię w centrach danych o 50 proc. do 2027 r. w porównaniu z 2023 r. i aż o 165 proc. do 2030 r.
Sztuczna inteligencja w cieniu danych
Firmy technologiczne generalnie niechętnie dzielą się informacjami o swoich modelach AI. Jednym z pośrednich sposobów oszacowania wpływu na środowisko tworzenia i wdrażania modeli sztucznej inteligencji jest zatem przyjrzenie się zgłaszanym przez firmy emisjom dwutlenku węgla. Emisje gazów cieplarnianych Google wzrosły o prawie połowę między 2019 a 2023 r. Emisje Microsoftu wzrosły o około jedną trzecią w 2023 r. w porównaniu do 2020 r.
Innym sposobem oszacowania śladu środowiskowego AI jest zsumowanie zużycia energii przez infrastrukturę wykorzystywaną do tworzenia samych modeli – pisze The Economist. Na przykład duży model językowy (LLM – large language model) Llama 3.1 firmy Meta, został wytrenowany przy użyciu chipów firmy Nvidia, które mogą pobierać 700 watów mocy każdy, czyli około połowy mocy dobrego czajnika, i działał na tych chipach łącznie przez 39,3 mln godzin. Zużyta w tym procesie energia, 27,5 GWh, wystarczyłaby na zasilenie 7,5 tys. domów przez cały rok.
Firmy technologiczne twierdzą jednak, że rachunek za energię nie jest tak absurdalnie wysoki, jak mogłoby się wydawać. Bezpośredni wpływ na klimat ostatniego treningu Llama 3.3, jak szacuje Meta, to emisje o wartości 11 390 ton CO2, czyli mniej więcej tyle, ile emituje 60 w pełni załadowanych lotów w obie strony Londyn – Nowy Jork.
Dzisiejsze raporty nie nadążąją za jutrem
Skupianie się na wpływie energetycznym modeli szkoleniowych może jednak nie być prawidłowym podejściem. Boris Gamazaychikov, który odpowiada za zrównoważony rozwój sztucznej inteligencji w przedsiębiorstwie Salesforce z siedzibą w San Francisco, porównuje to do próby oszacowania śladu węglowego lotu poprzez uwzględnienie wpływu budowy samego samolotu. Nie dość, że koszty budowy są niewielkie w porównaniu z paliwem zużywanym w trakcie typowego okresu eksploatacji, to jeszcze nie da się obliczyć wpływu liczby pasażerów, dopóki samolot nie zostanie ostatecznie wycofany ze służby.
Zamiast tego, jak twierdzi, najlepiej skupić się na wpływie energetycznym wykorzystania AI, procesie zwanym wnioskowaniem (inference). Analityk Brent Thill szacuje, że ten etap odpowiada za 96 proc. całkowitego zużycia energii w centrach danych wykorzystywanych przez branżę AI.
Jednocześnie modele sztucznej inteligencji są prawdziwie różnorodne. Najbardziej wydajny testowany model, zwany BERT-tiny, pobiera zaledwie 0,06 Wh na zadanie, czyli mniej więcej tyle, ile sekunda na rowerze treningowym, ale jest przydatny tylko do prostych zadań związanych z manipulacją tekstem. Nawet najmniej energochłonny testowany model generowania obrazu wymaga 3 tys. razy więcej energii elektrycznej do wytworzenia pojedynczego obrazu.
A do tego, jak mówi Sasha Luccioni z amerykańsko-francuskiego przedsiębiorstwa HuggingFace, konkretne dane, oczywiście, nie zawsze są dostępne. „OpenAI nie opublikowało ani jednego wskaźnika dotyczącego ChatGPT” – przekazała Luccioni, mimo że takie dane istnieją. To znamienne ze względu na popularność tego modelu i jego rolę kulturową w upowszechnieniu się AI. Inną trudnością w obliczaniu zużycia energii jest fakt, że modele AI po prostu niezwykle szybko ewoluują – to, co może być prawdziwe dziś, nie musi już być takie jutro.
Mniejszy nie znaczy gorszy
Jeśli modele staną się bardziej wydajne, do czego obecnie się dąży, będą miały jeszcze więcej zastosowań. W ostatnich miesiącach kilka laboratoriów AI uruchomiło narzędzia „Deep Research”, łączące modele rozumowania z możliwością wyszukiwania informacji w sieci i wyznaczania sobie następnych zadań. Narzędzia te są jednym z pierwszych popularnych przykładów tego, co branża AI nazywa „agentami”, quasi-autonomicznymi systemami, które mogą wykonywać wiele zadań sekwencyjnie. A ponieważ udzielenie odpowiedzi zajmuje im od 5 do 30 minut, uruchomienie takiego agenta zużywa więcej energii niż zadanie prostego pytania.
Osoby zaniepokojone trajektorią kosztów środowiskowych AI szukają sposobów na zmianę sytuacji. Gamazaychikov ma na przykład nadzieję, że jego wysiłki na rzecz klasyfikowania różnych modeli sztucznej inteligencji pozwolą użytkownikom i przedsiębiorstwom znaleźć najefektywniejszy model dla danego zadania, zamiast zawsze korzystać z „najlepszego”.
Podobnego zdania jest Pamela Krzypkowska z Ministerstwa Cyfryzacji, która niedawno udzieliła Energetyce 24 wywiadu dotyczącego kosztów energetycznych AI. Jak powiedziała, nie musimy zawsze korzystać z wielkich modeli językowych – lepiej byłoby używać wyspecjalizowanych modeli sztucznej inteligencji, najlepiej odpowiadających naszym potrzebom. Należy jednak zauważyć, że do tego potrzebna jest też chęć do bardziej kreatywnego działania, a niewiele jest dowodów na to, że rosnąca świadomość kosztu emisji dwutlenku węgla związanego z lataniem zniechęciła ludzi do samolotów. I tak ze sztucznej inteligencji, jak i z lotów w najbliższym czasie raczej nie przestaniemy korzystać.
Część obserwatorów uważa, że w tej sytuacji warto rozważyć wprowadzenie bardziej rygorystycznych regulacji, zarówno dotyczących samej sztucznej inteligencji, jak i energii, jaką zużywa. Na czele regulatorów znalazła się Europa. Od lata 2026 r. twórcy AI „wysokiego ryzyka” będą musieli informować organy regulacyjne o ilości energii, jaką zużywa. W USA dobrowolne akcje na rzecz efektywności są bardziej prawdopodobne niż nowe regulacje – uważa The Economist.
Bilans rewolucji mierzony w AI
„Sztuczna inteligencja to jedna z najważniejszych historii w dzisiejszym świecie energetycznym, ale do tej pory decydenci i rynki nie miały narzędzi, aby w pełni zrozumieć szeroki zakres jej wpływu” – skomentował w kwietniu Fatih Birol, szef Międzynarodowej Agencji Energetycznej (MAE) po opublikowaniu najnowszego raportu dotyczącego zależności między sektorem energetycznym a AI.
„Globalne zapotrzebowanie na energię elektryczną z centrów danych ma wzrosnąć ponad dwukrotnie w ciągu najbliższych pięciu lat, zużywając do 2030 r. tyle energii, ile obecnie zużywa cała Japonia. Efekty będą szczególnie odczuwalne w niektórych krajach. Na przykład w Stanach Zjednoczonych centra danych mają odpowiadać za prawie połowę wzrostu zapotrzebowania na energię elektryczną, w Japonii za ponad połowę, a w Malezji za jedną piątą” – dodał Birol.
Wedle raportu wzrost zapotrzebowania na energię elektryczną w centrach danych zwiększy emisje, jednak „wzrost ten będzie niewielki w kontekście całego sektora energetycznego i może zostać potencjalnie zniwelowany przez redukcję emisji umożliwioną przez sztuczną inteligencję”. Pod jednym warunkiem – upowszechnienia się najnowszych technologii. Ponadto, ze względu na to, że sztuczna inteligencja staje się coraz bardziej integralną częścią odkryć naukowych, może ona przyspieszyć innowacje w technologiach energetycznych, takich jak baterie i fotowoltaika.
„Wraz ze wzrostem sztucznej inteligencji sektor energetyczny jest na czele jednej z najważniejszych rewolucji technologicznych naszych czasów” – uważa szef MAE.
A tej rewolucji, jak i wielu innych, raczej już nie powstrzymamy. Jej temat niezmiennie fascynuje, szczególnie że sztuczna inteligencja może mieć wpływ niemal na wszystkie aspekty naszego życia, w tym na energię. Czy ostateczny bilans jej wykorzystania będzie korzystny dla ludzkości? O tym jeszcze się przekonamy. Być może najlepiej oceni to sztuczna inteligencja.