• W obliczu zmian klimatu potrzebujemy precyzyjnych narzędzi do tworzenia długoterminowych i globalnych prognoz
  • Tradycyjne modele służące do przewidywania zmian klimatycznych mają poważne ograniczenia i kosztują fortunę
  • Klimatolodzy eksperymentują z użyciem sieci neuronowych

Zmiany klimatyczne są faktem. Ludzkość bez opamiętania wysyła do atmosfery dwutlenek węgla (pochodzący np. ze spalania paliw kopalnych), co powoduje globalny wzrost temperatury. Ale jak w związku z tym dokładnie będzie wyglądała nasza klimatyczna przyszłość? Naukowcy nie są pewni.

Na ostatnim forum Intergovernmental Panel on Climate Change (IPCC) przedstawiono 20 modeli klimatycznych, które były bardzo rozbieżne w kluczowych kwestiach. Dotyczyło to na przykład przewidywanych skutków podwojenia zawartości dwutlenku CO2 w atmosferze. Jeden z modeli zakładał, że gdyby do tego doszło, średnia temperatura wzrosłaby o 1,5 stopnia Celsjusza, a inny, że o 4,5 stopnia Celsjusza Niewielka różnica? A od niej zależy choćby to, ile lądów pochłoną w przyszłości oceany.

Grube miliony za prognozę

Dotychczasowe modele klimatyczne mają poważne ograniczenia. Siatka takich cyfrowych map ma oczka szerokości kilkudziesięciu kilometrów. Zbyt duże rozmiary pikseli uniemożliwiają zidentyfikowanie np. pojedynczych chmur lub frontów burzowych. A to one są odpowiedzialne za zmiany temperatury i wilgotności, pochłaniają lub odbijają promieniowanie słoneczne itd.

Do stworzenia tych modeli naukowcy stosują tzw. parametryzacje procesów fizycznych zachodzących w atmosferze, opisując je w sposób uproszczony za pomocą równań matematycznych przekładanych na język komputera.

W tradycyjnych modelach klimatycznych naukowcy stosują tzw. parametryzacje procesów fizycznych zachodzących w atmosferze. Opisują je w sposób uproszczony za pomocą równań matematycznych przekładanych na język komputera

Owszem, dzięki parametryzacji powstają też modele chmurowe wyższej rozdzielczości (Cloud Resolving Models). CRM obejmują zjawiska zachodzące na obszarze nawet zaledwie kilkuset metrów i pozwalają podejrzeć cykl życiowy chmur: jak się tworzą, rozwijają i wyparowują lub opadają jako deszcz lub virga, czyli opad, który nie dociera do powierzchni ziemi. Są to jednak prognozy krótkoterminowe.

Nie dowiemy się dzięki nim na przykład, czy w świecie podgrzanym w wyniku emisji CO2 niskich chmur zasłaniających słońce będzie więcej (co chłodziłoby planetę) czy mniej (co dodawałoby do pieca).

Przełożenie CRM do modeli długoterminowych o globalnej skali napotyka poważną barierę – niewystarczającej mocy obliczeniowej dzisiejszych superkomputerów. Jak zauważa Chris Bretherton z University of Washington, jeśli chcemy w takich modelach zmniejszyć oczko sieci o połowę, przetworzenie tego zajmie komputerowi dziesięć razy więcej czasu. Koszt zbudowania superkomputera, który dałby sobie z tym radę, to ok. 100 milionów dolarów – ocenia z kolei David Randall z Colorado State University – a miesięczny koszt użytkowania takiej maszyny również szedłby w miliony.

Te bariery frustrują klimatologów i hamują dalszy rozwój ich dyscypliny, w momencie gdy pilnie są potrzebne odpowiedzi na pytania dotyczące zmian klimatycznych.

SI idzie jak burza

Naukowcy postanowili więc poeksperymentować ze sztuczną inteligencją. W „Proceedings of National Academy of Sciences” zostały opublikowane wyniki prac zespołu, w którego skład weszli: Stephan Rasp z Instytutu Meteorologii Teoretycznej na Uniwersytecie Ludwiga Maximiliana (LMU), Michael Pritchard z Uniwersytetu Kalifornijskiego w Irvine i Pierre Gentine z Columbia University.

W projekcie nazwanym Cloud Brain zastosowali oni sieci neuronowe, nie ucząc ich praw fizyki, tylko dostarczając wycinek danych z dotychczasowych modeli CRM. I sprawdzili, czy sztuczna inteligencja zasymuluje to samo, co model w wysokiej rozdzielczości przeniesiony do modelu globalnego.

Choć próby okazały się obiecujące, nie można jeszcze obwołać SI Świętym Graalem klimatologii

Okazało się, że SI „intuicyjnie” stosowała w modelowaniu prawa fizyki i chemii związane z temperaturą, wilgotnością itd. i trafnie przewidywała m.in. ekstremalne zjawiska pogodowe na małych odcinkach czasu i dla mniejszych obszarów.

Zużyła przy tym ułamek mocy obliczeniowej i czasu pracy komputera potrzebnych do stworzenia oryginalnego modelu – zaznacza Stephan Rasp.

To dobry punkt wyjścia do dalszych prób opracowania globalnego modelu klimatycznego oraz modeli dla większych obszarów oraz cieplejszych i oceanicznych klimatów, gdzie metoda Cloud Brain jeszcze sobie nie radzi.

– Nasz model oparty na danych jest szybki i dokładny, co pokazuje, jak duży potencjał tkwi w uczeniu maszynowym. Sieć neuronowa zastępuje proces parametryzacji i znacznie lepiej zajmuje się modelowaniem zachowania chmur w atmosferze – dowodzą w „PNAS” naukowcy.

SI musi się uczyć

Choć próby okazały się obiecujące, nie można jeszcze obwołać SI Świętym Graalem klimatologii.

Odejście od dotychczasowych zasad tworzenia modeli, opartych na znajomości praw rządzących procesami, które zachodzą w atmosferze, budzi opór części środowiska naukowego. Zwłaszcza że stajemy tu przed problemem typowym dla użycia sieci neuronowych.

– To jak czarna skrzynka. Wkładasz garść liczb i na drugim końcu wychodzi garść liczb – komentuje Philip Rasch z Pacific Northwest National Laboratory. – I nie wiesz, dlaczego produkuje taki a nie inny wynik.

Pritchard odpowiada na takie zastrzeżenia, że głębokie uczenie może znaleźć zastosowanie w tych obszarach modelowania, gdzie naukowcy nie rozumieją do końca zachodzących zjawisk. Nie ma równań na to, jak oceaniczne mikroorganizmy uczestniczą w obiegu węgla w przyrodzie, a więc jaki mają wpływ na globalne zmiany klimatyczne.

SI nie pokonała też na razie innej przeszkody. Słabo radzi sobie z dostosowaniem wyników do warunków innych niż wyuczone. Cloud Brain przeniesiony do znacznie cieplejszego świata po prostu wariuje – przyznaje Pritchard.

Receptą na to może być zwiększenie częstotliwości i jakości obserwacji klimatycznych, by na podstawie zebranych danych odpowiednio wyszkolić maszyny.

Spodziewamy się, że oparty na danych model rozwoju systemu klimatycznego Ziemi może być kluczowy w zmniejszaniu niepewności prognozowania klimatu w nadchodzącej dekadzie – podsumowują naukowcy w „PNAS”.