Reklama
  • W CENTRUM UWAGI
  • WYWIADY

Wiceprezes Asseco Poland: Tech-utopiści najbardziej szkodzą cyfryzacji energetyki

Paradoksalnie dziś największym zagrożeniem dla cyfryzacji, w tym cyfryzacji energetyki, nie są jej przeciwnicy, bo ich prawie nie ma, ale tech-utopiści, którzy twierdzą, że technologia rozwiąże każdy problem – powiedział w rozmowie z E24 Tomasz Bendlewski, wiceprezes Asseco Poland.

Autor. @alexlucru123/Envato

Katarzyna Łukasiewicz: W jakim stopniu bezpieczeństwo pracy systemu elektroenergetycznego to szerzej kwestia bezpieczeństwa całego kraju?

Tomasz Bendlewski: Niewątpliwie bezpieczeństwo energetyczne jest kwestią bezpieczeństwa kraju. Przykładem z niedalekiej przeszłości jest blackout w Hiszpanii z 28 kwietnia 2025 r. Pokazał, jak wielkim problemem gospodarczym i społecznym może być brak prądu. Nie można dzisiaj mówić o bezpiecznym kraju, jeżeli energetyka nie jest zabezpieczona. I tu zachodzi pewien paradoks: im dalej posunięta cyfryzacja, tym większa podatność na zagrożenia. Bardzo rośnie pole ekspozycji.

Tomasz Bendlewski, wiceprezes Asseco Poland.
Tomasz Bendlewski, wiceprezes Asseco Poland.
Autor. Asseco Poland

Dzisiaj cyberbezpieczeństwo jest wzmacniane, bo wdrażamy dyrektywę NIS2, która istotnie zmienia podejście do bezpieczeństwa. Firmy dokonują samooceny, a odpowiedzialność przesuwa się na poziom zarządczy i służy budowie architektury bezpieczeństwa całego sektora, a nie pojedynczych podmiotów. NIS2 pokazuje, jak ważne jest bezpieczeństwo łańcucha dostaw: technologii, organizacji i relacji z dostawcami. Ryzyko nie kończy się na granicy danego przedsiębiorstwa – firma jest tak bezpieczna jak jej najsłabszy dostawca.

Mówił Pan w trakcie panelu na konferencji PowerConnect Energy Summit, że kwestii nowych technologii w local content nie poświęcono wystarczająco uwagi.

TB: Tak. Postawiłbym tezę: nie jest możliwe zbudowanie strukturalnej i trwałej odporności sektora energetycznego bez suwerenności danych i suwerenności cyfrowej. Wprost prowadzi to do local content, który w całej Europie jest silnie przyspieszającym trendem pod wpływem wydarzeń geopolitycznych.

W Polsce założenia local content są opracowywane, a moją uwagę zwraca to, że nie jest wystarczająco silnie akcentowany wątek technologii. Coraz wyraźniej widać, że bezpieczeństwo systemu energetycznego zaczyna się tam, gdzie technologia, dane i odpowiedzialność są lokalne.

I tu dochodzimy do dwóch kluczowych przekonań, które porządkują całą tę dyskusję.

Po pierwsze, istnieje coś takiego jak suwerenność danych i suwerenność cyfrowa i jako kraj powinniśmy o nią świadomie dbać. Jeżeli nie kontrolujemy, gdzie przechowywane są kluczowe informacje, w jakiej technologii, na jakich zasadach i kto ma do nich dostęp, tracimy zdolność reagowania w sytuacjach kryzysowych i uzależniamy się od cudzych rozwiązań, praw i interesów.

W systemie energetycznym nawet kilkusekundowa niedostępność kluczowych informacji może oznaczać utratę kontroli nad sytuacją, a to może uruchomić kaskadę błędnych decyzji i w skrajnym scenariuszu prowadzić do blackoutu.

Po drugie, local content. Bez bliskości dostawcy i realnego wpływu na jego działanie, utrzymanie i rozwój nie ma rzeczywistej kontroli nad infrastrukturą krytyczną. To nie jest dziś preferencja ani hasło polityczne, tylko warunek odporności całego systemu.

I tu pojawia się kolejny paradoks: największym ryzykiem jest dziś myślenie życzeniowe, że technologia zapewni bezpieczeństwo, a tak naprawdę najbardziej potrzebujemy lokalnej kontroli nad danymi, kodem i rozliczalnością odpowiedzialności, czyli po prostu suwerenności i local content.

Reklama

Ten sposób myślenia znajduje już odzwierciedlenie w regulacjach. NIS2 po raz pierwszy na taką skalę wprowadza obowiązek zarządzania łańcuchem dostaw dla podmiotów kluczowych, czyli w praktyce dla całej energetyki. Odpowiedzialność zarządów przedsiębiorstw energetycznych nie kończy się na własnej organizacji – obejmuje także dane, technologię i dostawcę.

Nie wiem, czy czytała Pani książkę „Blackout” Marca Elsberga, ale to bardzo trafna metafora tych zagrożeń. Punktem zapalnym nie jest tam brak mocy, tylko wadliwy kod (furtka w oprogramowaniu), która umożliwia zdalne wyłączenie elektrowni i uruchamia efekt domina w całej Europie. To oczywiście powieść, ale mechanizm jest realistyczny i dobrze pokazuje, dlaczego technoutopia, czyli wiara, że technologia sama zapewni bezpieczeństwo jest dziś szczególnie niebezpieczna.

Czy scenariusz z książki „Blackout" może się ziścić?

TB: W przedmowie do tej książki zostało wyjaśnione, że wszystkie rzeczy, które są w niej opisane, już kiedyś się rzeczywiście wydarzyły, tylko nie na tak wielką skalę i nie jednocześnie. My musimy mieć pełną kontrolę nad rozwiązaniami, które są wykorzystywane w kluczowych przedsiębiorstwach.

O wadze tego zadania mnie już Pan przekonał, ale w takim razie jak właściwie zarządza się rosnącą ilością danych w energetyce? Jak to robić w Polsce?

TB: To jest dość złożone zagadnienie. Zacząłbym od tego, że ciągle mamy problemy z gromadzeniem i porządkowaniem danych, a w energetyce jest ich bardzo dużo. Co więcej ilość tych danych stale przyrasta. Obecnie etapowo przechodzimy na odczyty 15-minutowe co oznacza skokowy wzrost wolumenu. Ale równie istotne jest to, że rośnie nie tylko liczba danych, lecz także różnorodność ich źródeł. Dzisiaj energetyka rozproszona to już nie tylko dane z liczników czy systemów przedsiębiorstw energetycznych.

Co te dane przedstawiają?

TB: Z jednej strony są to klasyczne dane przedsiębiorstwa energetycznego, na przykład z licznika, który każdy z nas ma w domu, albo z systemów operatorskich typu SCADA, czy też dane handlowe z systemów bilingowych.

Z drugiej strony dochodzą dane pochodzące z szeroko pojętego Internetu Rzeczy, charakterystyczne dla energetyki rozproszonej. Dobrym przykładem są dane z falowników instalacji fotowoltaicznych. Jeszcze kilka lat temu takich informacji po prostu nie było w systemie. Dzisiaj są już niezbędne. Obserwujemy także dynamiczny przyrost rodzaju źródeł, co również przekłada się na wolumen ilościowy.

Do tego dochodzą dane z zupełnie innych obszarów, bez których dziś nie da się efektywnie zarządzać energetyką – choćby dane pogodowe. Bez nich nie jesteśmy w stanie wiarygodnie prognozować produkcji energii z OZE ani planować pracy systemu w warunkach rosnącej zmienności.

Dlatego zarządzanie danymi w energetyce trzeba zacząć od budowy struktur porządkujących źródła danych i nadających im wspólny kontekst systemowy. To jest jedno z największych wyzwań dla organizacji działających na rynku energii.

W skali kraju taką rolę ma pełnić CSIRE – jako mechanizm, który nie tylko gromadzi dane, ale przede wszystkim ujednolica ich strukturę, standardy i dostępność. Bez takiej wspólnej warstwy systemowej rosnąca ilość danych nie wzmacnia bezpieczeństwa energetycznego, lecz zaczyna być źródłem chaosu i ryzyka.

Reklama

Odnosząc się do tej konieczności gromadzenia danych, dlaczego system CSIRE (Centralny System Informacji Rynku Energii), jest priorytetowy dla polskiej energetyki?

TB: Podstawowa odpowiedź brzmi: dlatego że CSIRE porządkuje dane i procesy oraz sposób, w jaki rynek energetyczny wymienia informacje. W Europie funkcjonują dwa modele – model rozproszony i model centralnego systemu wymiany danych. Polska świadomie wybrała model centralny, w którym kluczowe informacje są gromadzone w jednym, wspólnym systemie.

Co ciekawe, przez lata Europa Środkowa była regionem, który z tego modelu rezygnował – Niemcy, Czechy czy Słowacja postawiły na rozwiązania rozproszone. Dziś Niemcy i Słowacy zmieniają podejście i przechodzą na model centralny, dochodząc do wniosku, że przy rosnącej liczbie danych i źródeł jest on po prostu bardziej efektywny i bezpieczny.

Istotą CSIRE jest przede wszystkim centralizacja i standaryzacja danych pomiarowych, ale system obejmuje również wybrane informacje handlowe pochodzące z rynku energii. Dzięki temu wszyscy uczestnicy rynku, zarówno duże koncerny, jak i mniejsze firmy, mają taki sam dostęp do danych, działając według tych samych reguł, a to z kolei przekłada się na wzrost konkurencyjność i powinno prowadzić do poprawy ofert i obniżenia ceny energii.

CSIRE upraszcza i automatyzuje procesy, takie jak zmiana sprzedawcy energii, które dziś są dla odbiorców skomplikowane i obarczone ryzykiem błędów. Jeśli dane są zgromadzone w jednym systemie i weryfikowane automatycznie, bariera wejścia dla klienta dramatycznie spada, a rynek zaczyna realnie konkurować – podobnie jak stało się to wcześniej w telekomunikacji.

Dodatkowo CSIRE tworzy ogólnokrajowy standard danych i procesów, w tym standardy bezpieczeństwa i szyfrowania. To fundament, na którym w kolejnych etapach można budować nowe mechanizmy – takie jak elastyczność rynku energii czy nowe modele usług dla odbiorców końcowych.

Reklama

Jest Pan zaangażowany w ten projekt od początku. Czy to taki projekt życia?

TB: Tak, zarówno ja, jak i Asseco jesteśmy zaangażowani w projekt CSIRE od samego początku. Jako firma odpowiadamy dziś za około 60% przyłączeń rynkowych, więc to nie są dla nas tylko kontrakty wdrożeniowe u klientów, ale realna współodpowiedzialność za funkcjonowanie krajowego rynku energii.

Z tej perspektywy to rzeczywiście jest projekt wyjątkowy. Z jednej strony ogromnie ambitny i satysfakcjonujący, z drugiej bardzo trudny i obciążony ogromną odpowiedzialnością. Mówimy w końcu o systemie, który staje się jednym z filarów cyfrowej infrastruktury energetycznej państwa.

CSIRE pokazuje też szerszą prawdę o cyfryzacji. Zawsze są dwie postawy: jedni widzą w niej wyłącznie problem i obowiązek regulacyjny, inni dostrzegają szansę na rozwój nowych produktów, usług i modeli biznesowych opartych na danych. W energetyce ta druga perspektywa jest szczególnie ważna, bo bez uporządkowanych i wiarygodnych danych nie da się zarządzać systemem, który staje się coraz bardziej złożony i rozproszony.

Ostatecznie jednak cyfryzacja (w tym projekt CSIRE) nie jest kwestią wyboru. To konieczność, wynikająca z kierunku, w jakim poszła energetyka i cały rynek europejski. Musimy ten proces potraktować jako impuls do budowy nowoczesnego, konkurencyjnego i bezpiecznego rynku energii w Polsce.

Polska powinna przyspieszać transformację energetyczną mimo wysokich kosztów, czy skupić się na doraźnej ochronie konkurencyjności gospodarki? A może rozwiązanie tkwi gdzieś pośrodku?

TB: Cel nadrzędny w obu przypadkach jest ten sam: poprawa konkurencyjności polskich przedsiębiorstw. Różnica polega nie tylko na horyzoncie czasowym, ale przede wszystkim na charakterze efektu. Doraźna ochrona daje przejściową ulgę finansową, natomiast transformacja energetyczna buduje strukturalną i trwałą przewagę konkurencyjną w sektorze przedsiębiorstw oraz, co równie istotne, prowadzi do cen energii akceptowalnych społecznie dla konsumentów.

Dlatego kluczowe jest, aby programy wsparcia były celowane i warunkowe, traktowane jako czas adaptacji do nowych realiów rynku energii. Chodzi o poprawę efektywności energetycznej, rozwój elastyczności, modernizację procesów oraz zmianę modeli biznesowych.

Z tego powodu uważam, że trzeba robić jedno i drugie, ale w ramach jednej, spójnej strategii, a nie dwóch równoległych i czasami sprzecznych polityk. Wsparcie ma pomóc firmom przejść przez trudny moment, ale to transformacja energetyczna zadecyduje o tym, czy za kilka lat będziemy realnie konkurencyjni jako gospodarka.

Wspomniał Pan, że cyfryzacja jest koniecznością, ale niesie ze sobą także nowe problemy, czy też wyzwania – w zależności od podejścia.

TB: Cyfryzacja jest dziś w energetyce nieunikniona, ale im bardziej energetyka staje się cyfrowa, tym bardziej rośnie skala nowych dylematów. Na tym tle coraz częściej pojawia się sztuczna inteligencja. Jestem zwolennikiem jej wykorzystywania, ale pod warunkiem zachowania jasnej granicy. Warto tutaj przypomnieć bardzo stare, ale dziś wyjątkowo aktualne ostrzeżenie IBM z końca lat 70. — „computer can never be held accountable, therefore a computer must never make a management decision”_. To zdanie nie było wyrazem lęku przed technologią, lecz świadomości, że odpowiedzialność nie podlega automatyzacji.

Sztuczna inteligencja może analizować dane, rekomendować scenariusze i wspierać decyzje, ale nie może przejmować roli podmiotu odpowiedzialnego.

W sektorze takim jak energetyka, która stanowi kluczowy element infrastruktury krytycznej ta granica jest szczególnie istotna. Gdy dochodzi do incydentu o skali systemowej, nie można zasłonić się algorytmem. Odpowiedzialność musi pozostać po stronie ludzi i instytucji.

Problemem pozostaje też przejrzystość. Wiele rozwiązań opiera się na modelach, które działają jak czarna skrzynka: widzimy wynik, ale nie zawsze potrafimy w pełni wyjaśnić mechanizm decyzji. W sektorze infrastruktury krytycznej to nie jest detal techniczny, lecz fundamentalne pytanie o zaufanie, nadzór i odpowiedzialność.

Reklama

Według badań częste korzystanie z AI powoduje, że zaczynamy wszyscy myśleć w ten sam sposób, bo dostajemy te same odpowiedzi i to doprowadza do olbrzymiej manipulacji.

TB: To ryzyko rzeczywiście istnieje, ale ja bym je opisał jeszcze szerzej. Nie chodzi tylko o to, że AI „podsuwa podobne odpowiedzi”. Kluczowe jest to, że narzędzia zaczynają standaryzować sposób myślenia. Idąc dalej, tam, gdzie znika różnorodność interpretacji, nie tylko łatwiej sterować narracją, ale rośnie też ryzyko podejmowania działań w oparciu o informacje, które brzmią wiarygodnie, lecz nie zostały zweryfikowane.

W tym miejscu dotykamy dylematu, który uważam dziś za jeden z najpoważniejszych w cyfryzacji: technoutopii. Paradoksalnie największym zagrożeniem dla cyfryzacji nie są jej przeciwnicy — bo praktycznie ich już nie ma. Jeśli zapytać kogokolwiek, czy energetykę trzeba cyfryzować, odpowiedź niemal zawsze brzmi „tak”. Problem polega na czymś innym. Część osób zaczyna wierzyć, że technologia jest drogą na skróty, która doprowadzi ich do określonego wyniku. Liczą na to, że sama potrafi rozwiązać problemy.

Tymczasem technologia nie jest strategią. Sama technologia nie rozwiązuje problemów, a zdarza się, że tworzy nowe, jeśli źle ją osadzimy w procesach. Dlatego narzędzia, w tym AI, mogą przyspieszać pracę, ale nie zastąpią rozumienia problemu, projektowania procesu ani odpowiedzialności. I to bardzo dobrze widać w praktyce.

Podam przykład: w projektach, o których rozmawiamy, największy trud i największa wartość nie tkwi w „pisaniu koncepcji”, tylko w kilkumiesięcznej analityce, w ustaleniu tego, jak system działa naprawdę, poznaniu wyjątków, ograniczeń danych, ról decyzyjnych i scenariuszy. Generatywna AI może ten etap wspierać, ale nie zastąpi pracy polegającej na uzgodnieniu rzeczywistości między ludźmi i instytucjami.

Jeśli ktoś wierzy, że „wrzucimy temat w AI i po sprawie”, to rzeczywiście dostanie szybko opis czy prototyp, ale nie dostanie odpowiedzi na pytania kluczowe: co jest źródłem prawdy, jak obsługujemy wyjątki, kto zatwierdza decyzje i co robimy, kiedy dane są niepełne/niespójne lub zdarzają się sytuacje wcześniej nieprzewidziane. A w systemach krytycznych to właśnie te kwestie rozstrzygają, czy rozwiązanie działa. Na tym etapie czasami pojawia się iluzja skrótu. To jest właśnie utopia technologiczna.

Największym ryzykiem nie jest to, że maszyna zacznie myśleć jak człowiek, tylko że człowiek zacznie traktować technologię jako substytut myślenia i odpowiedzialności.

Mówi Pan o takiej prymitywnej manipulacji.

TB: Nie użyłbym słowa „prymitywna”, bo tu rzadko chodzi o złą intencję. To raczej mechanizm, który nawiązuje do Pani poprzedniego pytania. Gdy odpowiedzi są szybkie, gładkie i „standardowe”, łatwo je pomylić z prawdą i przestać je weryfikować. Wtedy zaczyna się prawdziwy problem, czyli wiara w „iluzję skrótu”, że szybkość odpowiedzi AI zastąpi analizę, uzgodnienia i odpowiedzialność.

W energetyce to nie działa. Na końcu liczą się dane, procesy, kontrola decyzji i rozliczalność. Technologia ma wspierać ludzi, nie zdejmować z nich odpowiedzialności.

Bez względu na tempo zmian technologicznych kluczowe jest bezpieczeństwo i elastyczność systemu energetycznego, suwerenność danych i cyfrowa, którego technologia nie zapewni w wystarczającym stopniu bez krajowych regulacji oraz udziału lokalnych podmiotów.

Trzeba też powiedzieć otwarcie, że AI ma ogromną przyszłość w energetyce. Sztuczna inteligencja znajduje zastosowanie w wielu obszarach: od prognozowania zapotrzebowania i produkcji OZE, przez zarządzanie elastycznością i sieciami, po predykcyjne utrzymanie infrastruktury krytycznej. Jest technologią o bardzo dużych możliwościach przetwarzania, zdolną do analizy ogromnych wolumenów danych w czasie rzeczywistym, uczenia się na podstawie wzorców systemowych, adaptacji do zmiennych warunków oraz integrowania informacji z wielu dotąd niekompatybilnych źródeł.

Musimy jednak pamiętać, że AI to nie czary, lecz technologia, za którą stoją serwery, bazy danych, algorytmy oraz tworzący je ludzie. Podlega więc takim samym ograniczeniom jak inne technologie.

Nie mam jednak żadnych wątpliwości, że odpowiedzialnie wdrażana, w niedalekiej przyszłości stanie się jednym z kluczowych akceleratorów nowoczesnej, odpornej i konkurencyjnej energetyki.

Reklama