Reklama

Analizy i komentarze

Sztuczna inteligencja idzie po CO2. PrISMa pomoże przy wychwycie dwutlenku węgla

Autor. frimufilms / Envato

AI nas zdekarbonizuje? Nowopowstała platforma oparta o sztuczną inteligencję PrISMa ma nam pomóc wybrać najlepszą właśnie dla naszych konkretnych warunków sekwestrację dwutlenku węgla.

Reklama

Krążyła kiedyś anegdota z czasów prezydentury Richarda Nixona, że miał się on spotkać z prezesem Coca Coli J. Paulem Austinem, który to zaproponował POTUSowi deal stulecia: „Eksportujmy colę do Chin. Niech każdy Chińczyk wypije tylko jedną butelkę rocznie!!!….” – ekscytować miał się Austin. „Owszem, wspaniałe, ale wiesz JP, oni mogliby nam chcieć zwrócić butelki” – przytomnie zauważył Nixon. Poza swoją nieśmiertelnością w kontekście zastąpienia przyjaznych środowisku opakowań szklanych plastikowymi, mającymi swe źródło w przetwórstwie ropy naftowej i niemożnością ogarnięcia we współczesnym świecie tematu opłacalnego recyklingu plastiku (że o szkodliwości owego plastiku dla zdrowia nie wspomnę), niesie owa anegdota w sobie i inną uniwersalną prawdę. Póki nie wiesz, co zrobić z odpadem, nie wytwarzaj go.

Reklama

W tym świetle problem sekwestracji dwutlenku węgla ma w sobie zatem pewien dramatyzm. Wytwarzania tego gazu cieplarnianego nie da się uniknąć. Jest on naturalnym produktem oddychania tlenowego oraz kilku innych naturalnych procesów jak erupcje wulkaniczne. Obieg zaś węgla „w przyrodzie i gospodarce człowieka” nie jest rzeczą łatwą do policzenia ani małą. Umysł ludzki zdaje się zbyt ograniczony, by zawsze uwzględnić wszystkie czynniki, a trzeba to zrobić, żeby później nie dopłacać ponad miarę. Ocena zatem setek obmyślanych przez chemików sorbentów zdolnych wychwytywać na różnych zasadach CO2, połączona z opracowywanymi przez inżynierów wieloetapowymi procesami tej sekwestracji i ostatecznego odzyskiwania sorbentu, powiększona o warunki środowiskowe, w których ów proces ma zachodzić, zaczyna przerastać tak głowę pojedynczą, dwie razem, a nawet cały zespół badawczy. Zespół, którego członkom coraz trudniej się zrozumieć i porozumieć przy dzisiejszym rozczłonkowaniu wiedzy.

Jak też już wspominałam wcześniej gdzie indziej na tych łamach, droga między stołem laboratoryjnym, gdzie się prowadzi eksperymenty w małej skali i buduje prototypy urządzeń, a realnym światem, który jest wielki i w pełni nieodgadniony, jest długa, wyboista i usłana cierniami. Nawet zaś, gdy pominąć problemy administracyjne i podobnej natury, pozostanie problem przeskalowania do normalnego życia, do działania w warunkach makro, a nie mikro.

Reklama

Gdy nadmiar danych przytłacza nas, mamy dziś tendencję tworzyć sztuczne inteligencje, które przemielą ten stóg siana i pożądaną nam igłę z niego wydobędą. Generowanie tego typu analizatorów złożonych procesów, pozwalających wybierać optymalne szlaki postępowania, co do zasady niczym się nie różni od tworzenia sieci neuronowych wybierających dla nas najoptymalniejszą trasę w aplikacji Google Maps. Oczywiście diabeł tkwi w szczegółach, zatem nie jest to banalne – przypominam bowiem, że raczej nie da się zajrzeć AI „pod maskę”, zobaczyć, na czym polega praca jej „silnika”. Żaden algorytm zwrotny nie zostanie przez sztuczną inteligencję „wypluty”. Trudu zatem napisania tego typu sztucznych inteligencji, które na zupełnie nowym polu analizy zajmowałyby się wieloaspektowym analizowaniem złożonych procesów, podejmują się jedynie najlepsi programiści, w tym informatycy z prestiżowych ośrodków akademickich. Kierowani sugestiami i wiedzą specjalistów w danej dziedzinie oraz – niczym twórcy AI grająca w szachy – karmiący swoja sztuczną inteligencję tysiącami istniejących przykładów „rozgrywek”.

W połowie lipca dwa takie zespoły, ze szwajcarskiej École Polytechnique Fédérale de Lausanne i ze School of Engineering and Physical Sciences, Heriot-Watt University w Edynburgu opublikowały na łamach „Nature” efekty swojej pracy nad skonstruowaniem AI zdolnej ocenić pod kątem realnej opłacalności, skuteczności, adekwatności w danym miejscu i czasie rozmaite projekty i produkty służące do sekwestracji CO2. Pod kierunkiem Berenda Smita i Susany Garcia specjaliści ci powołali do istnienia „platformę PrISMa (Process-Informed design of tailored-made Sorbent Materials), która integruje ocenę materiałów, projektowania procesów, technoekonomię i ocenę cyklu życiowego, porównując ponad 60 studiów przypadków wychwytywania CO2 z różnych źródeł w 5 regionach świata przy użyciu różnych technologii”.

Platforma ta wykorzystuje zaawansowane symulacje i uczenie maszynowe, aby znaleźć najbardziej opłacalne i zrównoważone kombinacje procesów wychwytywania CO2 i zdolnych do tego materiałów przed wdrożeniem. „Jednocześnie informuje różne strony zainteresowane o opłacalności technologii, konfiguracji procesów i lokalizacji, ujawnia molekularne charakterystyki najlepiej działających sorbentów i dostarcza informacji na temat wpływu na środowisko, korzyści współzależnych i niezbędnych kompromisów” – informują w streszczeniu swego artykułu z „Nature” jego autorzy.

Współczesna – eksperymentalne i laboratoryjne – wychwytywanie dwutlenku węgla to już tysiące zsyntetyzowanych przez chemików rozmaitych materiałów porowatych, tak ciał stałych (np. związków metaloorganicznych) jak i zawiesin (np. opartych o krzemiany wapniowe i magnezowe). Kluczowe jest dopasowywanie konkretnego źródła emisji CO2 do konkretnego pochłaniacza. Szanse, że którykolwiek z nowo-projektowanych związków wyjdzie z laboratorium, są jednak minimalne – platforma PrISMa ma pomóc wydostać się stamtąd tym dla danych warunków i wymagań najlepszym i umożliwić swymi symulacjami ich wdrożenie. Platforma zatem zastępuje, dzięki swym zdolnościom do modelowania i symulacji – tysiące niezbędnych eksperymentów, częstokroć prowadzonych kosztowną i czasochłonną metodą prób i błędów.

„Używamy chemii kwantowej, symulacji molekularnej i uczenia maszynowego, aby przewidzieć, w przypadku nowych materiałów, wszystkie dane potrzebne do zaprojektowania procesu. Alternatywnie możemy wykorzystać dane eksperymentalne z materiałów syntetyzowanych w laboratorium. Następnie platforma oceni ich potencjalną wydajność w ponad 60 różnych studiach przypadków z całego świata” – tłumaczy dla służb prasowych swego uniwersytetu prof. Garcia. Interaktywne narzędzie ma pomagać nie tylko uczonym czy inżynierom konstruującym instalacje, ale przede wszystkim tym, którzy mają w nie inwestować żywe pieniądze, tak rządom, jak biznesowi.

Sztuczna inteligencja to już nie tylko analizatory obrazów czy modele językowe zwane chat-botami. Pojawia się coraz więcej narzędzi pozwalających na podejmowanie racjonalnych decyzji, opartych o skomplikowane lub rozległe dane. Oczywiście czasem nasze Google Maps wyprowadza nas na manowce i, jak we wszelkich dotąd procesach optymalizowanych czy zarządzanych przez sztuczne inteligencje, ciężko ustalić, kto jest winien (a zatem płaci odszkodowanie) w sytuacji pomyłki. Porażka AI, jak każda inna, nadal jest sierotą, wypadałoby zatem, aby prawnicy i legislatorzy zajęli się wreszcie załataniem tej luki. Ewidentnie bowiem stworzenie kolejnych generacji AI zdolnej holistycznie analizować procesy warte miliardy przestało być dla uczonych nieosiągalne. Także w dziedzinie dążenia ku zeroemisyjności gospodarki (niepostawionego ekonomicznie na głowie) m.in. na drodze sekwestracji dwutlenku węgla.

Reklama

Komentarze

    Reklama