Komentarz prof. Krzysztofa Hamana do raportu prof. dr hab. Zbigniewa Jaworowskiego pt. "Idzie zimno"
Zagrożenie niekorzystnymi zmianami klimatu jest jednym z najpoważniejszych współczesnych problemów ludzkości balansującej na krawędzi kryzysu w zakresie zaopatrzenia w energię, żywność i słodką wodę - elementów krytycznie zależnych od warunków klimatycznych. Nic więc dziwnego, że sprawy te budzą powszechne zainteresowanie a popularyzacja rzetelnej wiedzy o nich jest wysoce pożądana.
Niestety, artykuł prof. Zbigniewa Jaworowskiego na ten temat w numerze 15 (2649) „Polityki" warunku rzetelności nie spełnia. Składa się on w znacznej mierze z nieprawd, półprawd, nieścisłości i nieporozumień, których szczegółowe omawianie i prostowanie w krótkim tekście na łamach niespecjalistycznego tygodnika jest praktycznie niewykonalne. Ograniczam się więc do wskazania tylko najistotniejszych a jednocześnie najłatwiejszych do wyjaśnienia błędów tego artykułu.
1. Globalne ocieplenie o którym się obecnie mówi, dotyczy wzrostu temperatury przy powierzchni ziemi uśrednionej po powierzchni całego globu i okresie przynajmniej kilkunastu lat, co nie wyklucza znacznych nawet odchyleń w górę lub w dół na mniejszych obszarach i w krótszych przedziałach czasu. Przytaczane przez prof. Jaworowskiego przykłady, dotyczące poszczególnych lat czy nawet miesięcy i lokalnych sytuacji, nawet gdyby były rzetelne (a nie wszystkie są), nie są więc właściwymi argumentami w dyskusji z wnioskami IPCC. Podobny zestaw przykładów można (równie bezzasadnie) podać na dowód tezy przeciwnej i można zauważyć, że „entuzjaści" globalnego ocieplenia w rodzaju Ala Gore w jego „Niewygodnej prawdzie" to robią. Uwaga ta dotyczy także danych historycznych, zwłaszcza z przed wieku XIX, które niemal z reguły oparte są na analizach informacji pośrednich uzyskiwanych dla stosunkowo nielicznych punktów globu.
2. Od modeli klimatu na obecnym etapie ich rozwoju oczekuje się przede wszystkim poprawnych symulacji średniej temperatury globalnej, i wbrew temu co pisze prof. Jaworowski, najlepsze z nich robią to całkiem nieźle, mimo że w szczegółach wciąż wykazują liczne niedostatki (i zapewne długo jeszcze będą). Fakt, że żaden z nich nie jest w stanie, bez uwzględnienia antropogenicznej produkcji gazów cieplarnianych, poprawnie zasymulować wzrostu temperatury obserwowanego w ostatnich dekadach, jest istotnym argumentem za poważnym traktowaniem ostrzeżeń wyrażanych w ostatnich raportach IPCC. W skomplikowanym chaotycznym układzie jakim jest atmosfera Ziemi, w dodatku oddziałująca z oceanami i powierzchnią lądów, opieranie się w prognozach na przyszłość na analogiach z przeszłością jest wysoce ryzykowne. Jedynie dobre modele matematyczne mogą w tym pomóc. Są one wciąż, mimo szybkiego postępu, dalekie od doskonałości ale lepszym narzędziem na razie nie dysponujemy.
3. Propagowany przez prof. Jaworowskiego pogląd, że głównym czynnikiem sterującym klimatem są oddziaływania kosmiczne, jest na razie jedynie hipotezą o bardzo słabych podstawach empirycznych i łatwą do zakwestionowania. Podobnie nietrudno zakwestionować tezę o rzekomo wysokich stężeniach atmosferycznego dwutlenku węgla w XIX wieku. Są to jednak zagadnienia zbyt specjalistyczne by dyskutować je szczegółowo na łamach „Polityki".
4. Próbką nierzetelności naukowej omawianego artykułu może być ramka na stronie 36 podająca za NASA informację o najcieplejszych latach od r. 1880, które rzekomo miały przypadać na czwartą dekadę XX wieku. Proponuję zajrzeć na stronę:
http://data.giss.nasa.gov/gistemp/graphs/
a na niej kliknąć link: Ranking (Top 10 Warmest Years) i sprawdzić, że przytoczone tam przez prof. Jaworowskiego dane dotyczą jedynie terytorium USA (1,6% powierzchni globu). W danych globalnych najstarszym rokiem najcieplejszej dziesiątki jest 1990.
Trudno mi się ustosunkować do oskarżeń, że propagowanie tezy o zagrożeniu globalnym ociepleniem bywa celowym działaniem na rzecz określonych grup interesu. Nie mam możliwości ich sprawdzenia. Wiem jednak, że tego rodzaju oskarżenia wysuwane są przez obie strony sporu pod adresem ich przeciwników.
Niewątpliwie, przy naszej obecnej wiedzy o mechanizmach ewolucji klimatu, pełnej licznych luk, pogląd o antropogenicznym pochodzeniu obecnego ocieplenia jest wciąż bardziej hipotezą niż dobrze ugruntowaną teorią (jak by ją chcieli widzieć Al Gore i liczni inni jej zwolennicy), lecz liczba argumentów przemawiających za jej prawdziwością szybko wzrasta. Nie da się na razie wykluczyć, że dominują tu czynniki naturalne i ograniczając emisję gazów cieplarnianych nie zdołamy tego procesu powstrzymać, ale przynajmniej nie uczynimy go groźniejszym. Natomiast bierne czekanie na uzyskanie większej pewności i nic nie robienie może się dla ludzkości skończyć fatalnie.
Prof. dr hab. Krzysztof Haman - Instytut Geofizyki Uniwersytetu Warszawskiego, Członek korespondent PAN
Odpowiedź Zbigniewa Jaworowskiego na list profesora Krzysztofa Hamana
Nie zgadzam się pierwszym zdaniem prof. Krzysztofa Hamana mówiącym o rzekomo niekorzystnych skutkach Współczesnego Ocieplenia, jednej z faz odwiecznych naturalnych zmian klimatu. Nie jest obiektywne przedstawianie wyłącznie negatywnych skutków tych zmian, kiedy w rzeczywistości Współczesne Ocieplenie, jak i cieplejsze od niej podobne fazy poprzednie, były niezwykle korzystne dla całej biosfery i człowieka. Działo się tak głównie dlatego, że podwyższona temperatura i spowodowany nią wzrost emisji CO2 z oceanów do atmosfery, w znaczący sposób zwiększał na całym globie biologiczną produkcję netto (np. w latach 1995-2003 o 6%). Wskutek nawożenia przez naturalnie zwiększony poziom CO2 w atmosferze oraz innowacji w rolnictwie, pomimo wzrostu liczby ludności nie mamy światowego kryzysu żywnościowego, o którym mówi prof. Haman, lecz odwrotnie - jest teraz więcej żywności niż kiedykolwiek.
Przedstawiłem to w pracy (Jaworowski, 2007). Zebrałem w niej dane statystyczne z których wynika, że pomiędzy rokiem 1939 a 2000 ludność świata wzrosła 2,9 razy, a światowa produkcja żywności (pszenica, ryż, kukurydza i mięso) od 3,5 do 6,3 razy). Na głowę ludności świata przypadło w r. 2000 18% więcej pszenicy niż w r. 1939, 35% więcej ryżu, 76% więcej kukurydzy i 200% więcej mięsa (patrz również (Gadomski, 2008). To w dużym stopniu wpłynęło na wzrost przeciętnego trwania życia na całym świecie, a w Polsce z 48,2 lat u mężczyzn i 51.4 u kobiet w r. 1931, do 69.7 u mężczyzn i 78,1 u kobiet w r. 2000 (GUS, 2001; Klonowicz, 1976). W tym kontekście warto przypomnieć o cyklicznych klęskach głodu nawiedzających świat nawet w końcowym okresie Małej Epoki Lodowej (1350 - 1900). Jeszcze w r. 1846 i r. 1857 w czasie takich klęsk wywołanych zimnem, w Galicji zabijano ludzi z głodu, zjadano starców a nawet własne dzieci (Biegeleisen, 1929). To nie współczesna zmiana klimatu zaczyna doprowadzać do kryzysu żywnościowego i załamania współczesnej cywilizacji, lecz bezskuteczna walka z urojonym ogrzewaniem globu przez człowieka. Krytykę rzekomo grożącego kryzysu energetycznego świata (zależnego jak twierdzi prof. Haman od klimatu, co wydaje się dziwne, chyba, ze myśli o gwałtownym zwiększeniu zużycia energii po jego oziębieniu) przedstawiłem w (Jaworowski, 2007).
Wydaje mi się, że prof. Haman nie zbyt dokładnie przeczytał mój artykuł, twierdząc, że dyskutując z wnioskami IPCC ograniczam się do zmian temperatury w okresie „poszczególnych lat czy nawet miesięcy i lokalnych sytuacji". Nie zauważył, że dyskutuję sprawy w skali całego globu i jego wielkich połaci (np. Arktyki, Antarktydy i strefy tropikalnej), oraz w skali ostatnich 70 lat a także setek tysięcy (badania glacjologiczne) i setek milionów lat (badania geologiczne).
Mówiąc o modelach komputerowych prof. Haman zaprzecza sam sobie. Pisze, że modele „symulują temperaturę ...całkiem nieźle", a jednocześnie „wykazują liczne niedostatki". Kuriozalnym jest twierdzenie, że ponieważ żaden model nie jest w stanie poprawnie zasymulować obecnego wzrostu temperatury, bez uwzględnienia wpływu antropogenicznego CO2, to należy poważnie traktować ostrzeżenia IPCC, czyli zagrożenie dwutlenkiem węgla. Prof. Haman nie doczytał się w moim artykule wyjaśnienia, że wszystkie modele komputerowe, a więc i te uwzględniające ów dwutlenek węgla, dają pionowy i horyzontalny rozkład temperatury globu niezgodny z pomiarami (Douglass et al., 2007) (Daly, 2000; Przybylak, 2000). Symulacje komputerowe poniosły tu całkowita klęskę, która dyskwalifikuje je jako narzędzie do przewidywania przyszłości klimatu.
Jeszcze bardziej zadziwiające jest twierdzenie prof. Hamana, że „opieranie się w prognozach na przyszłość na analogiach z przeszłością jest wysoce ryzykowne. Jedynie dobre modele matematyczne mogą w tym pomóc". Jeżeli od tych modeli ma, zgodnie z zaleceniami IPCC, zależeć przyszłość naszej cywilizacji, to pobłażliwość wobec nich wydaje się nie na miejscu. Już od czasów Oświecenia obowiązuje w naukach przyrodniczych podstawowa zasada aktualizmu, stanowiąca, że współczesność jest kluczem do odtwarzania przeszłości, a przeszłość przyszłości. James Hutton, ojciec współczesnej geologii, określił to jasno w r. 1795: „In examining things present, we have data from which to reason with regard to what has been; and from what has actually been, we have data for concluding with regard to that which is to happen thereafter."(Hutton, 1795).
Zasady tej ani modele komputerowe, ani najlepsi matematycy, nie zastąpią nigdy. Wszystkie komputerowe modele klimatu oparte są na założeniach że Ziemia może być traktowana jako płaska i poddana wpływom przeciętnych składników strumienia energii. Zakładają one naturalną niezmienność zarówno tych składników jak i gazów cieplarnianych, wbrew wszystkim obserwacjom i dowodom, wykazującym, m.in., że wpływ wzrastającej koncentracji CO2 w powietrzu jest całkowicie eliminowany przez negatywne sprzężenia zwrotne klimatu, a założenia IPCC o dominującej roli sprzężeń pozytywnych są fałszywe (Karner, 2007). Przyjrzyjmy się co, zgodnie z innymi wieloma krytykami postępowania IPCC, mówi o modelach komputerowych Vincent Gray, ekspert IPCC i oficjalny recenzent wszystkich jego raportów. Wedle Graya, żaden komputerowy model klimatu nie przewidział jeszcze prawidłowo jakiegokolwiek przyszłego ciągu zdarzeń klimatycznych (Gray, 2008).
W pierwszym Raporcie IPCC (1990) występuje rozdział „Validation of Computer Models". Kiedy ten sam tytuł ukazał się we wstępnej wersji drugiego raportu Vincent Gray zwrócił Panelowi uwagę, że żaden komputerowy model klimatu nigdy nie podległ walidacji. Od tej pory w dokumentach IPCC słowo „validation" zniknęło, i IPCC nigdy już nie ogłaszał że jakikolwiek jego model podlegał walidacji. IPCC przestał nawet głosić, że jego modele są zdolne do prognozy (forcasting) przyszłego klimatu, i obecnie używa słabszego określenia - przewidywanie (projection). Jak stwierdza IPCC „Projections are distinguished from predictions in order to emphasize that projections involve assumptions concerning, for example, future socioeconomic and technological developments that may or may not be realized, and are therefore subject to substantial uncertainty"(Solomon et al., 2007).
Tak więc mamy tu do czynienia z przyznaniem się do "substantial uncertainty" wszystkich „projections", zwiększonej przez brak nawet próby sprawdzenia czy jakakolwiek „projection" zgodna jest z rzeczywistym zachowaniem się klimatu. IPCC ocenia swoje „projections" w oparciu o opinię osób opłaconych za ich opracowanie. Ten konflikt interesów czyni, że oceny te są bez wartości i winny być ignorowane. Nie ma obecnie żadnych przekonujących argumentów na poparcie poglądu jakoby emisja gazów cieplarnianych przez człowieka miała wykrywalny wpływ na klimat. Zamiast obserwacji i zasady aktualizmu, Prof. Haman, tak jak i IPCC, woli matematyczne modele. Ja nie.
Prof. Haman twierdzi, że pogląd o dominującej roli promieniowania kosmicznego w sterowaniu klimatem jest jedynie hipotezą, łatwą do zakwestionowania. Sprawa ta wyszła z fazy hipotezy opartej na korelacjach miedzy aktywnością Słońca a zmianami temperatury i zachmurzenia w atmosferze Ziemi. Same korelacje nie dowodzą niczego. Natomiast mechanizm sterowania klimatem został wyjaśniony eksperymentalnie w doświadczeniach przeprowadzonych z naturalnymi promieniami kosmicznymi w Danish National Space Center w Kopenhadze, które wyjaśniły tworzenie się chmur poprzez oddziaływanie naturalnych mionów z atomami dolnej troposfery. Obecnie przygotowywane jest nowe doświadczenie w CERN z użyciem potężnego akceleratora, umożliwiającego badanie tworzenia się chmur przez dokładnie zdefiniowane cząstki - rozpocznie się w r. 2010. Zachęcam Prof. Hamana do owego łatwego zakwestionowania wspomnianej hipotezy, obecnie zmienionej w teorię. Przedtem zalecam bliższe zapoznanie się ze szczegółowym opisem zagadnienia przedstawionym, m.in., w książce (Svensmark and Calder, 2007).
Prawdą jest, że przytoczone przez mnie dane, skrytykowane przez statystyka S. McIntyre (http://www.climateaudit.org/?p=1880) i poprawione przez NASA latem 2007, wskazujące, że od roku 1880 najcieplejszym był rok 1934, a nie 1998, nie są średnimi pomiarami z całego globu, lecz z terenu Stanów Zjednoczonych. W moim artykule nie ma informacji, że to są pomiary temperatury z całego globu. Szkoda, że nie rozwinąłem tego tematu, ale przy najlepszej woli redakcji POLITYKI nie da się powiedzieć wszystkiego w jednym artykule. Prawdą jest, że Stany Zjednoczone (9 161 923 km2) stanowią tylko 1,8% powierzchni Ziemi (510 065 600 km2), nie 1,6% jak pisze Prof. Haman. Ale również jest prawdziwe, że ich powierzchnia to 6% wszystkich lądów (ok. 148 940 000 km2), oraz to że są one najbardziej reprezentatywnym zbiorem danych dla oceny długoterminowych zmian temperatury przyziemnej globu. Na lądach znajduje się większość stacji globalnej sieci pomiarowej. Na terytorium Stanów Zjednoczonych znajduje się 1221 stacji, co stanowi ½ całej globalnej sieci stacji, a amerykańska sieć uważana jest za najlepszą. Jeszcze ważniejszą jest sprawa jakości stacji i prowadzonych w nich pomiarów, a także manipulacji danymi pomiarowymi.
Niska jakość tych pomiarów podważa wiarogodność ocen zmian średniej przyziemnej temperatury globu. Od około roku toczy się dyskusja nad wiarogodnością globalnych ocen przedstawianych przez IPCC (Gray, 2008), wywołana m.in. wykryciem zafałszowanego zminimalizowania wpływu „miejskich wysp ciepła" w pracach (Jones et al., 1990) oraz (Wang et al., 1990), na których opiera się ICPP. Wielkość tego wpływu, oceniona na zaledwie 0.05oC, miałaby być zbyt niska dla wyjaśnienia trendu ocieplenia w XX wieku. Fałszerstwo udowodnił (Keenan, 1997; Keenan, 2007), i oskarżył Wanga o nieuczciwość naukową przed władzami Nowojorskiego Uniwersytetu Stanowego (http://www.informath.org/WCWF07a.pdf).
Na oceny globalne wpłynęły też fluktuacje liczby stacji pomiarowych, która gwałtownie wzrosła po r. 1950, głownie wskutek wzrostu liczby stacji wiejskich oraz stacji przy lotniskach. To częściowo spowodowało znany spadek oceny temperatury w okresie 1950 do 1975. Natomiast po roku 1989 wystąpiło w skali świata masowe zamykanie stacji wiejskich, co wraz ze wzrostem ruchu lotniczego, przyczyniło się do wykazywania po r. 1988 wzrostu średniej przyziemnej temperatury w skali globu, a także w mniejszym stopniu w USA. Zjawisko to nie wystąpiło ani w balonowych pomiarach temperatury dolnej troposfery (Thorne and al., 2004), ani w satelitarnych (MSU, 2007). Te pomiary nie są obciążone błędami sieci naziemnej.
Farsa z ogłaszaniem coraz to nowych „najcieplejszych lat stulecia" trwała od lat osiemdziesiątych do XXI wieku. W tej sytuacji warto przytoczyć dane z Polski. W Warszawie najcieplejszymi latami w okresie 1779 -1998 były lata 1989 i 1990 (9,8 i 9,7oC). Rok. 1797 miał w Warszawie średnią temperaturę 9,6oC, rekordowy rok amerykański 1934 był u nas trochę zimniejszy (9,5oC), a jeszcze zimniejszy był w Warszawie rok 1998 (8,8oC) (Lorenc, 2000), który w skali globu jeszcze do niedawna uchodził za najcieplejszy. Rok 2007 był w Warszawie równie ciepły jak rok 1797: 9,6oC (informacja prywatna, prof. H. Lorenc). Również w dziesiątkach miejsc nie obciążonych błędem „miejskich wysp ciepła", jak np. Islandia, Kolumbia, Andy, Syberia, Arktyka czy wnętrze Antarktydy łącznie z Biegunem Południowym (czyli tam gdzie modele komputerowe i IPCC przewidują największy wzrost temperatury) (patrz rysunek), nie stwierdzono w latach 1955 - 2002 wzrostu temperatury, lecz jej spadek lub brak trendu (Daly, 2003; Daly, 2008) (Humlum, 2003).
Nie zgadzam się z inwokacją w ostatnim zdaniu listu Prof. Hamana, do „zasady przezorności", skompromitowanej w odniesieniu do naturalnych pozytywnych zmian klimatu które obecnie przeżywamy. Grożące ekonomiczną, socjalną i polityczną katastrofą skutki ograniczania emisji dwutlenku węgla (w imię nie udowodnionej hipotezy), jest brutalnym uderzeniem w podstawowe źródła energii, serce współczesnej cywilizacji, które nie ma żadnych szans wpływania na klimat (patrz niżej film The Great Global Warming Swindle). Mamy cywilizację - ten najwyższy wykwit miliardów lat ewolucji, oraz dobrobyt własny i przyszłych pokoleń, poświęcić na ołtarzu ekoreligii?
Zbigniew Jaworowski