Czego szuka ludzkość

Czysta ciekawość
W którym punkcie jesteśmy, jeśli idzie o próbę odpowiedzi na Wielkie Pytania – o porządek Wszechświata, naturę materii, konstrukcję ludzkiego umysłu?
Antena z obserwatorium Chajnantor w Chile
ALMA/Bob Broilo/materiały prasowe

Antena z obserwatorium Chajnantor w Chile

Trudno o lepsze i bardziej krzepiące przykłady porozumienia ponad podziałami, małostkowością, egoizmem, czyli dowodami na nikczemność ludzkiej natury, niż wielkie inicjatywy związane z czystym poznaniem – nauką. Przy nich gigantomaniacki dubajski wieżowiec Burj Khalifa jest przejawem wszelkich (może poza wiedzą inżynierską) ułomności Homo sapiens. 

Ale czy dobrze się spisujemy? Dwa i pół tysiąca lat minęło od czasu, gdy Demokryt uznał, że materia ma naturę ziarnistą, dwa – odkąd Ptolemeusz nakreślił swój pierwszy model Wszechświata, a my wciąż nie mamy pewności, jak to wszystko się zaczęło. Nie wiemy też, jak dalej potoczą się losy kosmosu, ponieważ jego przyszłość determinują czynniki, w badaniach których największy nasz sukces polega na nadaniu im nazwy. Zjawiska i pojęcia (grawitacja, czas i inne), z którymi pozostawaliśmy w poufałych stosunkach, odsłaniają zaskakujące oblicza.

Odsłaniając warstwy historii Ziemi i Układu Słonecznego, śmielej stawiamy pytania o początki życia. Ale postęp wiedzy jest źródłem nowych konsternacji. Jak to się dzieje, że oszałamiająca stopniem wyrafinowania konstrukcja ludzkiego ciała powstaje z planów zapisanych w zaledwie 25–30 tys. genów? Jak formują się białka, których potencjalna liczba jest tak wielka, że we Wszechświecie fizycznie zrealizowała się zaledwie niewielka ich część? W jaki sposób mózg przechowuje wspomnienia, gdzie rodzi się świadomość? Skąd bierze się wolna wola? I wreszcie – czy tam, nad nami, jest ktoś, kto mógłby nam służyć radą? Jakaś równie lub – lepiej – bardziej niż my inteligentna forma istnienia? Chciałoby się powiedzieć – forma życia, gdyby tylko wiadomo było, jak je zdefiniować.

Mimo ciągłej pracy najtęższych umysłów ludzkości, mimo uruchomienia gigantycznych projektów naukowych takich jak wielki zderzacz hadronów pod Genewą czy projekt poznania ludzkiego genomu, wiele każe sądzić, że wiemy niewiele. Byłoby zatem błędem uznać, że nauka pogrąża się w kryzysie? Byłoby.

Szanować sprzeczności

Listę (subiektywną, rzecz jasna) wielkich znaków zapytania otwiera skok z wieczności do doczesności – czyli Wielki Wybuch. Uczonych dręczy pytanie o to, co do niego doprowadziło, i o to, co wydarzyło się tuż po nim, w trwającej ułamek sekundy Erze Plancka, gdy czas i przestrzeń miały jeszcze naturę nieciągłą. Aby ten burzliwy epizod opisać, potrzebna jest teoria, która teorie używane obecnie z wielkim powodzeniem, sprawdzone na wielu frontach – względności i mechanikę kwantową – połączy w zgrabną całość. Kością niezgody między nimi jest grawitacja. Dodatkowe zamieszanie wprowadzają dokonane całkiem niedawno odkrycia (stanowiących ponad 95 proc. Wszechświata) ciemnej materii i ciemnej energii.

Ta pierwsza wpływa na trajektorie mgławic i galaktyk (w ten sposób wydedukowano jej istnienie). Druga sprawia natomiast, że Wszechświat zamiast rozszerzać się coraz wolniej, rozdyma się w rosnącym tempie. Obie zagadkowe „substancje” wypełniają przestrzeń, przecinają nasze ciała – niezauważone, niezmierzone, niewidzialne, co zakrawa już na metafizykę, a jednak tuż po narodzinach Wszechświata mogły (musiały?) one mieć zasadniczy wpływ na przebieg ewolucji jego, a więc i naszej. Przez 20 ostatnich lat badań na ten temat, mawiają fizycy, zdołaliśmy odkryć przede wszystkim rozmiary własnej ignorancji.

W blokach startowych stoi już co najmniej kilka wyrafinowanych teorii rozprawiających się z problemem czasu „zero”. Wszechświaty według Andrieja Linde i Alexa Vilenkina kiełkują podczas wybuchów, do których dochodzi w osobnych, odległych rejonach wiecznej czasoprzestrzeni. U Alana Gutha i Lee Smolina nowe światy rodzą się we wnętrzach czarnych dziur. Lisa Randall i Raman Sundrum twierdzą, że nasz i inne wszechświaty istnieją w osobnych przedziałach wymiarów, zderzając się ze sobą (powodując wielkie eksplozje), oddziaływając na siebie (dając złudzenie istnienia ciemnej energii) lub nie. Niestety teoria strun (według której cząstki, a wśród nich grawiton, nośnik grawitacji, są jak dźwięki wygrywane na egzotycznym rodzaju strun), jądro większości interesujących kosmologicznych Genesis, wydaje się sprytniejsza niż sami fizycy, którzy odkrywają ją etapami, wciąż nie rozumiejąc pełnego sensu całości. Jest fizyką XXI w., która przypadkowo spadła w wiek XX, mawia Ed Witten, wielka głowa tej dziedziny nauki.

Żeby jednak teoria ważyła więcej niż kartka, na której została spisana, trzeba jej potwierdzeń. To dlatego pod Genewą Europejska Organizacja Badań Jądrowych prowadzi najkosztowniejszy eksperyment w historii ludzkości (10 mld dol.). Czy istnieje cząstka Higgsa, daleki krewny grawitonu? Czy są jakieś wymiary poza znanymi nam czterema? Jaka była natura kwarkowo-gluonowej plazmy tworzącej wczesny Wszechświat? Czy znane oddziaływania to tylko manifestacje jakiejś ogólniejszej siły? Największy chronograf na Ziemi cofnie nas do chwil tuż po powstaniu Wszechświata, gdzie zbiegają się tropy większości przypuszczeń.

Fal grawitacyjnych poszukuje amerykańskie LIGO, Laser Interferometer Gravitational Wave Observatory (370 mln dol.) i francusko-włoskie VIRGO. To gigantyczne arcydzieła precyzji służące do detekcji zaburzeń czasoprzestrzeni, konsekwencji zjawisk zachodzących z udziałem masywnych obiektów kosmicznych (czarnych dziur, supernowych). Potrafią zarejestrować odkształcenia kilkukilometrowej ścieżki, wzdłuż której biegnie światło lasera, o odcinek równy średnicy protonu.

Zatopione w lodzie Antarktydy detektory składające się na międzynarodowe IceCube Neutrino Observatory (272 mln dol.; w kosztach partycypują USA, Niemcy i Szwecja) już rozpoczynają badania zagadkowych wysokoenergetycznych rozbłysków promieniowania kosmicznego. Posłużą także – wkrótce – do zweryfikowania hipotezy ciemnej materii oraz teorii strun. Zanurzone na głębokości 1,5–2,5 km obserwatorium o łącznej objętości kilometra sześciennego rejestruje neutrina i miony, efekty procesów, w których brać mogą udział cząstki kluczowe dla nowych teorii.

W zamierzchłą przeszłość widzialnego Wszechświata, w czas, gdy rodziły się pierwsze gwiazdy i galaktyki, zajrzy wkrótce międzynarodowy interferometr ALMA, Atacama Large Millimeter Array (13 mld dol.), najambitniejszy tego typu projekt w historii nauki – dynamiczny układ 50 radioteleskopów ustawionych pod czystym niebem chilijskiej pustyni Atacama, pięć kilometrów nad poziomem morza. Potwierdzenia (lub obalenia) teorii szukamy również w kosmosie. Wkrótce wysłużony i zasłużony teleskop kosmiczny Hubble’a zostanie zastąpiony przez znacznie nowocześniejszy teleskop Webba (około 4,5 mld dol.). Te i inne urządzenia – umieszczane na Ziemi i w przestrzeni kosmicznej – zbierają wzajemnie uzupełniające się dane w ilościach dotąd trudnych do wyobrażenia. To pożywka od dawna oczekiwana przez wygłodniałych fizyków i kosmologów.

Przy okazji: mówiąc o dużych naukowych zabawkach warto rozbić dość powszechne przekonanie, jakoby tak zwaną Wielką Naukę rozpoczął służący skonstruowaniu bomby atomowej projekt Manhattan. Choć to prawda, że w szczytowym momencie dawał zatrudnienie blisko 130 tys. osób, dorównując wielkością całemu ówczesnemu amerykańskiemu przemysłowi motoryzacyjnemu, tylko sygnalizował tendencję, która w naukach doświadczalnych narastała już od połowy XIX w.

Irlandczyk William Parsons już w 1839 r. zbudował Lewiatana z Parsonstown, 4-tonowy teleskop o tubusie, przez który dorosły mężczyzna mógł przejść nie zdejmując kapelusza.

Nad bronią chemiczną w Niemczech i Wielkiej Brytanii pracowało po wybuchu I wojny światowej ponad 5 tys. uczonych. W podobny sposób opracowano sonar i radar. Będące nieraz obiektem krytyki współzawodnictwo Europejczyków i Amerykanów w dziedzinie budowy wielkich akceleratorów cząstek sięga natomiast korzeniami lat 30. ubiegłego wieku, kiedy to każdy szanujący się wydział fizyki stawiał w piwnicy własny cyklotron.

Ostatnim symbolem nauki w służbie polityki była NASA, której rzeczywistym zadaniem było wyniesienie na orbitę okołoziemską (i dalej) nie tyle sprzętu badawczego, co ego Stanów Zjednoczonych. Misja została wykonana, mimo iż z budżetowego i organizacyjnego punktu widzenia stanowiła ewidentną aberrację. Jej swoistym przedłużeniem była Międzynarodowa Stacja Kosmiczna, najdroższe (100 mld dol.) laboratorium świata, formalnie przedsięwzięcie międzynarodowe, ale w praktyce podporządkowane interesom USA. Misja marsjańskiego łazika Phoenix, której całkowity koszt (385 mln dol.) stanowił ułamek procenta budżetu stacji, dostarczyła wiele istotnych z naukowego punktu widzenia danych co umieszczony na orbicie, większy od jumbo jeta blaszany motyl (choć bez wątpienia dzięki wykonywanym na jej pokładzie eksperymentom wzbogaciliśmy wiedzę o wpływie stanu nieważkości na organizmy żywe, poddaliśmy też testom wiele nowych materiałów). Nowa strategia NASA, polegająca na konstruowaniu misji skromniejszych i wąsko specjalizowanych, w dużym stopniu wzorowana jest na poczynaniach założonej w 1975 r. Europejskiej Agencji Kosmicznej, która zdefiniowała nowe reguły gry – elastycznie uwzględniając preferencje i możliwości wszystkich partnerów.

Wróćmy jednak do meritum, czyli nauki rozumianej jako chęć poznania natury rzeczywistości. Żyjemy w dobrych dla niej czasach. Leon M. Lederman, fizyk noblista z amerykańskiego Fermilabu, mawia, że w powietrzu unosi się już zapach nowych odkryć; że poczucie zbliżającej się rewolucji jest niezwykle silne. Być może jednak, zastanawia się Lee Smolin z kanadyjskiego inkubatora zwariowanych pomysłów Perimeter Ins-titute, trzeba oduczyć młode pokolenia naukowców języka nauki, którym przemawiali do nich mentorzy. Podstawowa wada znanego od lat 70. Modelu Standardowego polega na tym, że pięknie opisuje trzy podstawowe oddziaływania fizyczne, ale nie obejmuje czwartego – grawitacji. Z kolei mechanika kwantowa sprawdza się z pomiarami doświadczalnymi do 14 miejsca po przecinku, lecz miażdży zdrowy rozsądek. Żeby więc doszło do przewrotu, trzeba danych, danych, danych. Najlepiej sprzecznych.

Łączyć wysiłki

Nie tylko fizyka i kosmologia wkraczają w wiek złoty. Kolejny przykład z półki Wielkich Pytań – nauki o umyśle. Ludzki mózg ze swoimi setkami miliardów neuronów (mniej więcej tyloma, ile jest gwiazd w Galaktyce), z których każdy połączony jest z innymi komórkami nerwowymi tysiącami synaps, tworzącymi w sumie ponad sto tysięcy kilometrów organicznego okablowania, jest najbardziej złożonym znanym nam obiektem – w zasadzie wciąż niepoznanym. Brakuje spójnego modelu, który uwzględniałby wielość skal czasowych i przestrzennych procesów w nim zachodzących. Możemy tylko zgadywać, jak powstają i są przechowywane wspomnienia, jak rodzi się świadomość. Ba – jak nasz mózg dochodzi do rozwiązania najprostszego działania 1+1?

Ale i w tej dziedzinie poczyniliśmy kolosalny postęp: pożegnaliśmy się na dobre z kartezjańskim dualizmem ciała i duszy. Obaliliśmy dogmat o niezmiennej (w czasie życia człowieka) liczbie neuronów w mózgu. Wydaje się, że świadomość ma charakter ciągły – większą lub mniejszą wrażliwość na własną obecność mogą wykazywać nie tylko ludzie, ale i zwierzęta. W moim odczuciu świadomość jest przereklamowana; ludzie, filozofowie lubią o niej mówić, bo chcą wierzyć, że inne byty jej nie posiadają – mówi Seth Lloyd, fizyk z MIT, autor teorii, w ujęciu której Wszechświat jest wielkim kwantowym komputerem (obliczającym własne przeznaczenie).

Lloyd jest symptomem szerszego zjawiska: w badaniach nad świadomością naukowcy zastępują filozofów wyposażeni w narzędzia do monitorowania funkcji mózgu (obrazowanie rezonansu magnetycznego, tomografy), konstruujący karkołomne modele teoretyczne, prowadzący symulacje in silico. Efekty bywają zaskakujące. Lloyd, na przykład, dowodzi (matematycznie), że wolną wolą, której sens należy jego zdaniem przedefiniować, obdarzony może być nie tylko człowiek, pies, kot czy szczur, ale także komputer i telefon komórkowy.

Inaugurowane właśnie interdyscyplinarne Human Connectome Project i Human Cognome Project (oba amerykańskie) mają ustandaryzować i przyspieszyć badania nad mózgiem. Wzorowane są na projekcie poznania ludzkiego genomu (3 mld dol., USA i konsorcjum międzynarodowe), wyzwaniu o stopniu skomplikowania porównywalnym chyba tylko z wyprawą człowieka na Księżyc. Projekt ten odsłonił rozległe połacie naszej niewiedzy o liczbie genów (obstawiano istnienie stu tysięcy, okazało się, że mamy zaledwie ćwierć tej liczby), przede wszystkim zaś dobitnie wykazał, że to, jak się informacja zawarta w genach wyraża w formie struktur białkowych, zależy od wielu subtelnych czynników. Ujawnił też zagadkę pozagenowego DNA, które może regulować pracę samych genów. Ten stan oszołomienia bogactwem kombinacji generowanych przez prawa fizyki z 92 zaledwie pierwiastków plus gwałtowny postęp technik badawczych, plus najwyższa stawka (rozszyfrowanie genezy chorób o podłożu genetycznym) gwarantuje, że w naukach biologicznych „będzie się działo”.

Podobne do projektu ludzkiego genomu inicjatywy wyrastają wokół proteomu człowieka, czyli arsenału jego białek. Proteiny zwijają się na niezliczone sposoby, wybierając ten stosowny do kontekstu w czasie milionowej części sekundy. Są cięte na mniejsze fragmenty o nowych funkcjach; łączą się ze sobą ponownie, znowu zmieniając swoje zadanie; są w końcu modyfikowane przez przyłączenie niewielkich cząsteczek – i to w wielu różnych miejscach i kombinacjach równocześnie. Te drobne zmiany często decydują o przeznaczeniu poszczególnych białek. Odtworzenie owych procesów porządnemu komputerowi zajęłoby całe lata pracy. Przy okazji wielkich projektów naukowych powstają więc obsługujące je, używane potem do rozmaitych celów, wydajne sieci tysięcy superkomputerów (Open Science Grid, Tera Grid, EGEE, LHC Computing Grid).

Kiedy danych przybywa (samych tylko projektów informatycznych związanych z badaniem bioróżnorodności, uwzględniających aspekty taksonomiczne, biogeograficzne i ekologiczne, jest ponad 600), metodologia ich gromadzenia i przeczesywania zaczyna być nauką samą w sobie. Wielce użyteczne do ćwiczenia alternatywnych metod analizy są sieci służące do obliczeń rozproszonych, których członkowie użyczają mocy swoich osobistych komputerów. W ten sposób realizowane są projekty związane z biologią i medycyną (Folding@Home, Rosetta@Home – symulacje białek), fizyką (Einstein@Home – analiza danych z LIGO), naukami o Ziemi (Climateprediction.net – modelowanie klimatu), kosmologią (MilkyWay@Home – analiza danych z obserwatorium SDSS), matematyką i dziesiątkami innych. To prawdziwa cicha cyfrowa rewolucja.

Czytaj także

Co nowego w nauce?

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną