Polityka i prawo wobec rozwoju AI w energetyce. Relacja z CIRE PowerUp 2025
Chociaż sztuczna inteligencja może wspierać w efektywności energetycznej, rozwój odnawialnych źródeł energii i zarządzanie sieciami, jednocześnie generuje ona olbrzymie zapotrzebowanie na wodę. Stoimy przed paradoksem – technologia, która ma pomagać, w rzeczywistości „wysysa” zasoby – mówiła na konferencji CIRE PowerUp 2025 Maja Czarzasty-Zybert w trakcie panelu „Polityka i prawo wobec rozwoju sztucznej inteligencji w energetyce”.
Dyskusja dotyczyła kluczowych wyzwań związanych ze zrównoważonym rozwojem, odpowiedzialnością prawną oraz implementacją unijnych przepisów dotyczących AI w sektorze energetycznym.
Wyzwania środowiskowe i zrównoważony rozwój
Panel moderowała Angelika Szufel, prawniczka z CMS Poland. W gronie uczestników znaleźli się: Aleksanda Auleytner, szefowa praktyki IT&TMT w Kancelarii DZP, Tomasz Soika, dyrektor departamentu prawnego Huawei Polska, Maja Czarzasty-Zybert, członek rady zarządzającej Polskiego Komitetu Światowej Rady Energetycznej, Izabella Żyglicka z Kancelarii Żyglicka i Wspólnicy oraz Cezary Małozięć, wykładowca Uniwersytetu SWPS.
„Polska jest obecnie na drodze budowania kompetencji w zakresie centrów danych. Hiperskalowe centra danych w USA zużywają ponad 2 mln litrów wody, a mniejsze – dziesiątki litrów dziennie. Każdy kilowat energii wymaga od 1,8 do 12 l wody, w zależności od lokalizacji” – opisała Maja Czarzasty-Zybert na początku dyskusji, odpowiadając na pytanie o wyzwania, jakie stoją przed energetyką w kontekście gwałtownego rozwoju sztucznej inteligencji.
Autor. E24
Zdaniem panelistki obecne regulacje unijne w niewystarczającym stopniu uwzględniają kwestie środowiskowe związane ze sztuczną inteligencją. Zwróciła jednak uwagę, że Polska, która jest w trakcie transformacji energetycznej, ma szansę odpowiednio przygotować się do wykorzystania sztucznej inteligencji jako inteligentnego narzędzia zarządzania energią. Określiła centra danych mianem „niewidzialnych elektrowni i ukrytych ujęć wody”, postulując wprowadzenie obowiązku raportowania śladu środowiskowego AI, analogicznie do raportowania emisji CO2.
Potencjał AI i ramy regulacyjne
Tomasz Soika wskazał na pozytywne aspekty AI, wspominając o wdrożonych w UE projektach Huawei przynoszących oszczędności rzędu 30 proc. dla instalacji PV wykorzystujących AI w stosunku do standardowych instalacji fotowoltaicznych.
Sztuczna inteligencja daje nam nadzieję i wnosi sporo pozytywów.
Tomasz Soika, Huawei Polska
Jak zaznaczył przedstawiciel Huawei Polska, z aktualizacji Krajowego Planu w dziedzinie Energii i Klimatu (KPEiK) nie wynika na razie spójna strategia dotycząca AI. W jego opinii konieczne jest jednak proaktywne podejście do promowania rozwiązań opartych na AI.
W innych państwach są rozwiązania, które promują sztuczną inteligencję, to są tzw. piaskownice regulacyjne. Wzorcem dla nas może być Wielka Brytania, która stosuje rozwiązania pozwalające na wymianę danych najwyższej jakości. Dane to przecież paliwo dla modeli AI i są one niezbędne także w energetyce.
Tomasz Soika, Huawei Polska
Autor. E24
Prawnik odniósł się do unijnego rozporządzenia AI Act (Akt w sprawie sztucznej inteligencji), które przewiduje utworzenie krajowego punktu kontaktowego. Polska nie wskazała go jeszcze oficjalnie, choć ma on kluczowe znaczenie dla dialogu między administracją a biznesem. „Obecnie Komisja Europejska prowadzi konsultacje dotyczące planu wdrożenia cyfryzacji i wykorzystania sztucznej inteligencji w sektorze energetycznym, które potrwają do 5 listopada. Dobrze byłoby, gdyby skupiła się ona na wymianie i pozyskiwanie wysokiej jakości danych do trenowania modeli AI” – zaznaczył.
„Aby zapewnić konkurencyjność i bezpieczeństwo polskiego sektora energetycznego konieczne jest uchwalanie przepisów, które umożliwią wdrażanie innowacji i zapewnią przyjazne warunki do inwestycji w inteligentne magazyny energii czy w ogóle systemy zarządzania energią w Polsce” – powiedział Soika.
Przedstawiciel Huawei postulował wspieranie inwestycji w projekty energetyczne wykorzystujące AI, wspieranie pozyskiwania wysokiej jakości danych, finansowanie polskich innowacyjnych startupów w zakresie AI i energetyki, a także rozwój certyfikacji i standaryzacji.
Odpowiedzialność prawna i nadzór człowieka
Izabella Żyglicka zwróciła uwagę na konieczność sprawowania skutecznego nadzoru nad działaniem AI, podkreślając, że ostateczna odpowiedzialność zawsze spoczywa na człowieku. Przytoczyła przykład sędziego w Portugalii, który wydał wyrok oparty na uzasadnieniu wygenerowanym przez AI – zawierającym nieistniejące przepisy i nieprawniczy język. Sprawa zakończyła się postępowaniem dyscyplinarnym wobec sędziego. – „Ten przykład dobrze pokazuje ryzyko wynikające z podejścia »kopiuj-wklej« bez nadzoru człowieka” – podkreśliła Żyglicka.
Żyglicka przypomniała również o toczonych przed laty dyskusjach na temat tego, czy sztuczna inteligencja powinna płacić składki ZUS, i zauważyła, że koncepcja „elektronicznej osobowości prawnej” wkrótce może przestać budzić zdziwienie. Odnosząc się do tych kwestii, Cezary Małozięć podkreślił, że AI pozostaje przede wszystkim narzędziem w rękach człowieka. Przedstawił też hipotetyczny scenariusz, w którym system AI monitorujący obciążenie sieci może błędnie ocenić je jako zbyt wysokie, co prowadziłoby do wyłączenia jednego ze źródeł i w efekcie do blackout’u w części kraju.
„Powstaje pytanie: kto ponosi odpowiedzialność za działanie takiego systemu? Twórca oprogramowania, odpowiedzialny za przygotowanie danych wejściowych, wyjściowych i walidacyjnych, czy może zamawiający lub użytkownik, który nie stosował się do dostarczonej instrukcji? Niewykluczona jest też odpowiedzialność solidarna lub rozproszona, jeśli system został pozostawiony bez nadzoru.
Cezary Małozięć, SWPS
W nawiązaniu do tej kwestii Aleksandra Auleytner przypomniała, że ustawa o systemach AI – implementująca zapisy unijnego AI Act – prawdopodobnie wejdzie w życie w przyszłym roku. Podkreśliła znaczenie precyzyjnego określenia odpowiedzialności za wprowadzanie poszczególnych danych do systemów. Zwróciła również uwagę na art. 4 AI Act, który wprowadza obowiązek szkoleń z zakresu funkcjonowania systemów AI (tzw.AI literacy), stosowany od 2 lutego 2025 r.
Autor. E24
Jest to obowiązek, choć w AI Act nie przewidziano bezpośrednich kar za jego niewykonanie. Komisja Europejska wskazuje jednak, że jeśli plan szkoleń okaże się nieadekwatny do wymogów określonych w AI Act lub w ogóle nie zostanie przygotowany, taki podmiot może zostać potraktowany surowiej.
Aleksandra Auleytner, Kancelaria DZP
Z jednej strony AI oferuje ogromny potencjał do zwiększenia efektywności (nawet 30 proc. oszczędności w przypadku PV, jak wskazał Tomasz Soika), zarządzania sieciami i wspierania zielonej transformacji, z drugiej – niesie ze sobą poważne wyzwania środowiskowe i regulacyjne. Jak wynika z dyskusji, o sukcesie tej technologii w energetyce zdecyduje nie tylko postęp techniczny, ale także zdolność do stworzenia jasnych zasad odpowiedzialności i nadzoru nad jej wykorzystaniem.
Mat. sponsorowany