Osoby czytające wydania polityki

„Polityka”. Największy tygodnik w Polsce.

Wiarygodność w czasach niepewności.

Subskrybuj z rabatem
Nauka

Czysta ciekawość

Czego szuka ludzkość

Antena z obserwatorium Chajnantor w Chile Antena z obserwatorium Chajnantor w Chile ALMA/Bob Broilo / materiały prasowe
W którym punkcie jesteśmy, jeśli idzie o próbę odpowiedzi na Wielkie Pytania – o porządek Wszechświata, naturę materii, konstrukcję ludzkiego umysłu?

Trudno o lepsze i bardziej krzepiące przykłady porozumienia ponad podziałami, małostkowością, egoizmem, czyli dowodami na nikczemność ludzkiej natury, niż wielkie inicjatywy związane z czystym poznaniem – nauką. Przy nich gigantomaniacki dubajski wieżowiec Burj Khalifa jest przejawem wszelkich (może poza wiedzą inżynierską) ułomności Homo sapiens. 

Ale czy dobrze się spisujemy? Dwa i pół tysiąca lat minęło od czasu, gdy Demokryt uznał, że materia ma naturę ziarnistą, dwa – odkąd Ptolemeusz nakreślił swój pierwszy model Wszechświata, a my wciąż nie mamy pewności, jak to wszystko się zaczęło. Nie wiemy też, jak dalej potoczą się losy kosmosu, ponieważ jego przyszłość determinują czynniki, w badaniach których największy nasz sukces polega na nadaniu im nazwy. Zjawiska i pojęcia (grawitacja, czas i inne), z którymi pozostawaliśmy w poufałych stosunkach, odsłaniają zaskakujące oblicza.

Odsłaniając warstwy historii Ziemi i Układu Słonecznego, śmielej stawiamy pytania o początki życia. Ale postęp wiedzy jest źródłem nowych konsternacji. Jak to się dzieje, że oszałamiająca stopniem wyrafinowania konstrukcja ludzkiego ciała powstaje z planów zapisanych w zaledwie 25–30 tys. genów? Jak formują się białka, których potencjalna liczba jest tak wielka, że we Wszechświecie fizycznie zrealizowała się zaledwie niewielka ich część? W jaki sposób mózg przechowuje wspomnienia, gdzie rodzi się świadomość? Skąd bierze się wolna wola? I wreszcie – czy tam, nad nami, jest ktoś, kto mógłby nam służyć radą? Jakaś równie lub – lepiej – bardziej niż my inteligentna forma istnienia? Chciałoby się powiedzieć – forma życia, gdyby tylko wiadomo było, jak je zdefiniować.

Mimo ciągłej pracy najtęższych umysłów ludzkości, mimo uruchomienia gigantycznych projektów naukowych takich jak wielki zderzacz hadronów pod Genewą czy projekt poznania ludzkiego genomu, wiele każe sądzić, że wiemy niewiele. Byłoby zatem błędem uznać, że nauka pogrąża się w kryzysie? Byłoby.

Szanować sprzeczności

Listę (subiektywną, rzecz jasna) wielkich znaków zapytania otwiera skok z wieczności do doczesności – czyli Wielki Wybuch. Uczonych dręczy pytanie o to, co do niego doprowadziło, i o to, co wydarzyło się tuż po nim, w trwającej ułamek sekundy Erze Plancka, gdy czas i przestrzeń miały jeszcze naturę nieciągłą. Aby ten burzliwy epizod opisać, potrzebna jest teoria, która teorie używane obecnie z wielkim powodzeniem, sprawdzone na wielu frontach – względności i mechanikę kwantową – połączy w zgrabną całość. Kością niezgody między nimi jest grawitacja. Dodatkowe zamieszanie wprowadzają dokonane całkiem niedawno odkrycia (stanowiących ponad 95 proc. Wszechświata) ciemnej materii i ciemnej energii.

Ta pierwsza wpływa na trajektorie mgławic i galaktyk (w ten sposób wydedukowano jej istnienie). Druga sprawia natomiast, że Wszechświat zamiast rozszerzać się coraz wolniej, rozdyma się w rosnącym tempie. Obie zagadkowe „substancje” wypełniają przestrzeń, przecinają nasze ciała – niezauważone, niezmierzone, niewidzialne, co zakrawa już na metafizykę, a jednak tuż po narodzinach Wszechświata mogły (musiały?) one mieć zasadniczy wpływ na przebieg ewolucji jego, a więc i naszej. Przez 20 ostatnich lat badań na ten temat, mawiają fizycy, zdołaliśmy odkryć przede wszystkim rozmiary własnej ignorancji.

W blokach startowych stoi już co najmniej kilka wyrafinowanych teorii rozprawiających się z problemem czasu „zero”. Wszechświaty według Andrieja Linde i Alexa Vilenkina kiełkują podczas wybuchów, do których dochodzi w osobnych, odległych rejonach wiecznej czasoprzestrzeni. U Alana Gutha i Lee Smolina nowe światy rodzą się we wnętrzach czarnych dziur. Lisa Randall i Raman Sundrum twierdzą, że nasz i inne wszechświaty istnieją w osobnych przedziałach wymiarów, zderzając się ze sobą (powodując wielkie eksplozje), oddziaływając na siebie (dając złudzenie istnienia ciemnej energii) lub nie. Niestety teoria strun (według której cząstki, a wśród nich grawiton, nośnik grawitacji, są jak dźwięki wygrywane na egzotycznym rodzaju strun), jądro większości interesujących kosmologicznych Genesis, wydaje się sprytniejsza niż sami fizycy, którzy odkrywają ją etapami, wciąż nie rozumiejąc pełnego sensu całości. Jest fizyką XXI w., która przypadkowo spadła w wiek XX, mawia Ed Witten, wielka głowa tej dziedziny nauki.

Żeby jednak teoria ważyła więcej niż kartka, na której została spisana, trzeba jej potwierdzeń. To dlatego pod Genewą Europejska Organizacja Badań Jądrowych prowadzi najkosztowniejszy eksperyment w historii ludzkości (10 mld dol.). Czy istnieje cząstka Higgsa, daleki krewny grawitonu? Czy są jakieś wymiary poza znanymi nam czterema? Jaka była natura kwarkowo-gluonowej plazmy tworzącej wczesny Wszechświat? Czy znane oddziaływania to tylko manifestacje jakiejś ogólniejszej siły? Największy chronograf na Ziemi cofnie nas do chwil tuż po powstaniu Wszechświata, gdzie zbiegają się tropy większości przypuszczeń.

Fal grawitacyjnych poszukuje amerykańskie LIGO, Laser Interferometer Gravitational Wave Observatory (370 mln dol.) i francusko-włoskie VIRGO. To gigantyczne arcydzieła precyzji służące do detekcji zaburzeń czasoprzestrzeni, konsekwencji zjawisk zachodzących z udziałem masywnych obiektów kosmicznych (czarnych dziur, supernowych). Potrafią zarejestrować odkształcenia kilkukilometrowej ścieżki, wzdłuż której biegnie światło lasera, o odcinek równy średnicy protonu.

Zatopione w lodzie Antarktydy detektory składające się na międzynarodowe IceCube Neutrino Observatory (272 mln dol.; w kosztach partycypują USA, Niemcy i Szwecja) już rozpoczynają badania zagadkowych wysokoenergetycznych rozbłysków promieniowania kosmicznego. Posłużą także – wkrótce – do zweryfikowania hipotezy ciemnej materii oraz teorii strun. Zanurzone na głębokości 1,5–2,5 km obserwatorium o łącznej objętości kilometra sześciennego rejestruje neutrina i miony, efekty procesów, w których brać mogą udział cząstki kluczowe dla nowych teorii.

W zamierzchłą przeszłość widzialnego Wszechświata, w czas, gdy rodziły się pierwsze gwiazdy i galaktyki, zajrzy wkrótce międzynarodowy interferometr ALMA, Atacama Large Millimeter Array (13 mld dol.), najambitniejszy tego typu projekt w historii nauki – dynamiczny układ 50 radioteleskopów ustawionych pod czystym niebem chilijskiej pustyni Atacama, pięć kilometrów nad poziomem morza. Potwierdzenia (lub obalenia) teorii szukamy również w kosmosie. Wkrótce wysłużony i zasłużony teleskop kosmiczny Hubble’a zostanie zastąpiony przez znacznie nowocześniejszy teleskop Webba (około 4,5 mld dol.). Te i inne urządzenia – umieszczane na Ziemi i w przestrzeni kosmicznej – zbierają wzajemnie uzupełniające się dane w ilościach dotąd trudnych do wyobrażenia. To pożywka od dawna oczekiwana przez wygłodniałych fizyków i kosmologów.

Przy okazji: mówiąc o dużych naukowych zabawkach warto rozbić dość powszechne przekonanie, jakoby tak zwaną Wielką Naukę rozpoczął służący skonstruowaniu bomby atomowej projekt Manhattan. Choć to prawda, że w szczytowym momencie dawał zatrudnienie blisko 130 tys. osób, dorównując wielkością całemu ówczesnemu amerykańskiemu przemysłowi motoryzacyjnemu, tylko sygnalizował tendencję, która w naukach doświadczalnych narastała już od połowy XIX w.

Irlandczyk William Parsons już w 1839 r. zbudował Lewiatana z Parsonstown, 4-tonowy teleskop o tubusie, przez który dorosły mężczyzna mógł przejść nie zdejmując kapelusza.

Nad bronią chemiczną w Niemczech i Wielkiej Brytanii pracowało po wybuchu I wojny światowej ponad 5 tys. uczonych. W podobny sposób opracowano sonar i radar. Będące nieraz obiektem krytyki współzawodnictwo Europejczyków i Amerykanów w dziedzinie budowy wielkich akceleratorów cząstek sięga natomiast korzeniami lat 30. ubiegłego wieku, kiedy to każdy szanujący się wydział fizyki stawiał w piwnicy własny cyklotron.

Ostatnim symbolem nauki w służbie polityki była NASA, której rzeczywistym zadaniem było wyniesienie na orbitę okołoziemską (i dalej) nie tyle sprzętu badawczego, co ego Stanów Zjednoczonych. Misja została wykonana, mimo iż z budżetowego i organizacyjnego punktu widzenia stanowiła ewidentną aberrację. Jej swoistym przedłużeniem była Międzynarodowa Stacja Kosmiczna, najdroższe (100 mld dol.) laboratorium świata, formalnie przedsięwzięcie międzynarodowe, ale w praktyce podporządkowane interesom USA. Misja marsjańskiego łazika Phoenix, której całkowity koszt (385 mln dol.) stanowił ułamek procenta budżetu stacji, dostarczyła wiele istotnych z naukowego punktu widzenia danych co umieszczony na orbicie, większy od jumbo jeta blaszany motyl (choć bez wątpienia dzięki wykonywanym na jej pokładzie eksperymentom wzbogaciliśmy wiedzę o wpływie stanu nieważkości na organizmy żywe, poddaliśmy też testom wiele nowych materiałów). Nowa strategia NASA, polegająca na konstruowaniu misji skromniejszych i wąsko specjalizowanych, w dużym stopniu wzorowana jest na poczynaniach założonej w 1975 r. Europejskiej Agencji Kosmicznej, która zdefiniowała nowe reguły gry – elastycznie uwzględniając preferencje i możliwości wszystkich partnerów.

Wróćmy jednak do meritum, czyli nauki rozumianej jako chęć poznania natury rzeczywistości. Żyjemy w dobrych dla niej czasach. Leon M. Lederman, fizyk noblista z amerykańskiego Fermilabu, mawia, że w powietrzu unosi się już zapach nowych odkryć; że poczucie zbliżającej się rewolucji jest niezwykle silne. Być może jednak, zastanawia się Lee Smolin z kanadyjskiego inkubatora zwariowanych pomysłów Perimeter Ins-titute, trzeba oduczyć młode pokolenia naukowców języka nauki, którym przemawiali do nich mentorzy. Podstawowa wada znanego od lat 70. Modelu Standardowego polega na tym, że pięknie opisuje trzy podstawowe oddziaływania fizyczne, ale nie obejmuje czwartego – grawitacji. Z kolei mechanika kwantowa sprawdza się z pomiarami doświadczalnymi do 14 miejsca po przecinku, lecz miażdży zdrowy rozsądek. Żeby więc doszło do przewrotu, trzeba danych, danych, danych. Najlepiej sprzecznych.

Łączyć wysiłki

Nie tylko fizyka i kosmologia wkraczają w wiek złoty. Kolejny przykład z półki Wielkich Pytań – nauki o umyśle. Ludzki mózg ze swoimi setkami miliardów neuronów (mniej więcej tyloma, ile jest gwiazd w Galaktyce), z których każdy połączony jest z innymi komórkami nerwowymi tysiącami synaps, tworzącymi w sumie ponad sto tysięcy kilometrów organicznego okablowania, jest najbardziej złożonym znanym nam obiektem – w zasadzie wciąż niepoznanym. Brakuje spójnego modelu, który uwzględniałby wielość skal czasowych i przestrzennych procesów w nim zachodzących. Możemy tylko zgadywać, jak powstają i są przechowywane wspomnienia, jak rodzi się świadomość. Ba – jak nasz mózg dochodzi do rozwiązania najprostszego działania 1+1?

Ale i w tej dziedzinie poczyniliśmy kolosalny postęp: pożegnaliśmy się na dobre z kartezjańskim dualizmem ciała i duszy. Obaliliśmy dogmat o niezmiennej (w czasie życia człowieka) liczbie neuronów w mózgu. Wydaje się, że świadomość ma charakter ciągły – większą lub mniejszą wrażliwość na własną obecność mogą wykazywać nie tylko ludzie, ale i zwierzęta. W moim odczuciu świadomość jest przereklamowana; ludzie, filozofowie lubią o niej mówić, bo chcą wierzyć, że inne byty jej nie posiadają – mówi Seth Lloyd, fizyk z MIT, autor teorii, w ujęciu której Wszechświat jest wielkim kwantowym komputerem (obliczającym własne przeznaczenie).

Lloyd jest symptomem szerszego zjawiska: w badaniach nad świadomością naukowcy zastępują filozofów wyposażeni w narzędzia do monitorowania funkcji mózgu (obrazowanie rezonansu magnetycznego, tomografy), konstruujący karkołomne modele teoretyczne, prowadzący symulacje in silico. Efekty bywają zaskakujące. Lloyd, na przykład, dowodzi (matematycznie), że wolną wolą, której sens należy jego zdaniem przedefiniować, obdarzony może być nie tylko człowiek, pies, kot czy szczur, ale także komputer i telefon komórkowy.

Inaugurowane właśnie interdyscyplinarne Human Connectome Project i Human Cognome Project (oba amerykańskie) mają ustandaryzować i przyspieszyć badania nad mózgiem. Wzorowane są na projekcie poznania ludzkiego genomu (3 mld dol., USA i konsorcjum międzynarodowe), wyzwaniu o stopniu skomplikowania porównywalnym chyba tylko z wyprawą człowieka na Księżyc. Projekt ten odsłonił rozległe połacie naszej niewiedzy o liczbie genów (obstawiano istnienie stu tysięcy, okazało się, że mamy zaledwie ćwierć tej liczby), przede wszystkim zaś dobitnie wykazał, że to, jak się informacja zawarta w genach wyraża w formie struktur białkowych, zależy od wielu subtelnych czynników. Ujawnił też zagadkę pozagenowego DNA, które może regulować pracę samych genów. Ten stan oszołomienia bogactwem kombinacji generowanych przez prawa fizyki z 92 zaledwie pierwiastków plus gwałtowny postęp technik badawczych, plus najwyższa stawka (rozszyfrowanie genezy chorób o podłożu genetycznym) gwarantuje, że w naukach biologicznych „będzie się działo”.

Podobne do projektu ludzkiego genomu inicjatywy wyrastają wokół proteomu człowieka, czyli arsenału jego białek. Proteiny zwijają się na niezliczone sposoby, wybierając ten stosowny do kontekstu w czasie milionowej części sekundy. Są cięte na mniejsze fragmenty o nowych funkcjach; łączą się ze sobą ponownie, znowu zmieniając swoje zadanie; są w końcu modyfikowane przez przyłączenie niewielkich cząsteczek – i to w wielu różnych miejscach i kombinacjach równocześnie. Te drobne zmiany często decydują o przeznaczeniu poszczególnych białek. Odtworzenie owych procesów porządnemu komputerowi zajęłoby całe lata pracy. Przy okazji wielkich projektów naukowych powstają więc obsługujące je, używane potem do rozmaitych celów, wydajne sieci tysięcy superkomputerów (Open Science Grid, Tera Grid, EGEE, LHC Computing Grid).

Kiedy danych przybywa (samych tylko projektów informatycznych związanych z badaniem bioróżnorodności, uwzględniających aspekty taksonomiczne, biogeograficzne i ekologiczne, jest ponad 600), metodologia ich gromadzenia i przeczesywania zaczyna być nauką samą w sobie. Wielce użyteczne do ćwiczenia alternatywnych metod analizy są sieci służące do obliczeń rozproszonych, których członkowie użyczają mocy swoich osobistych komputerów. W ten sposób realizowane są projekty związane z biologią i medycyną (Folding@Home, Rosetta@Home – symulacje białek), fizyką (Einstein@Home – analiza danych z LIGO), naukami o Ziemi (Climateprediction.net – modelowanie klimatu), kosmologią (MilkyWay@Home – analiza danych z obserwatorium SDSS), matematyką i dziesiątkami innych. To prawdziwa cicha cyfrowa rewolucja.

Otwierać umysły

Ludzki mózg jest swego rodzaju zwieńczeniem ewolucji życia (na Ziemi). Jego początki, wydarzenie, które miało miejsce 3,5–4 mld lat temu, mniej więcej wtedy, kiedy powstawały najstarsze odkryte przez nas skały, wciąż pozostają poza zasięgiem reflektora poznania naukowego. Impuls dała prawdopodobnie jakaś niezidentyfikowana jeszcze reakcja chemiczna, kopiująca pewien wzorzec informacji z jednego pokolenia jej produktów na kolejne, by z czasem – jak z coraz większym przekonaniem sądzimy – wykształcić bądź wykorzystać cząsteczkę podobną do dzisiejszego RNA.

Kwas rybonukleinowy wydaje się znakomitym kandydatem na molekułę życia, ponieważ jest nie tylko nośnikiem informacji, ale i w pewnych okolicznościach działa jak enzym katalizujący przebieg reakcji chemicznych. Nie zbadaliśmy jeszcze, jak RNA ulega replikacji, możemy tylko zgadywać, w jakich okolicznościach władzę nad światem ożywionym przejął jego następca DNA, w ostatnich latach wykonaliśmy jednak poznawczą przewrotkę, akceptując fakt, że nie ma ostrej granicy między tym, co nieożywione, a tym, co (umownie) żyje. Przyjmujemy, iż życie jest np. „samopodtrzymującym się systemem chemicznym zdolnym do ewolucji na drodze doboru naturalnego” (definicja NASA, jedna z dziesiątków rozważanych), i zachowujemy otwartość umysłu.

Naukowcy badający początki życia jak kania dżdżu łakną dowodów w postaci złożonych jego form niezanieczyszczonych śladami miliardów lat ewolucji. Żeby je zdobyć, trzeba opuścić Ziemię i prowadzić poszukiwania na Marsie, na Europie – księżycu Jowisza, być może na Tytanie, satelicie Saturna, i na kometach ponieważ, jak przypuszczamy, mogą one przechowywać depozyty najbardziej pierwotnych form zdolnych do ewolucji organizmów. Jednocześnie warto zaglądać w atmosfery planet pozasłonecznych – jeszcze niedawno zaledwie hipotetycznych, dziś zaksięgowanych w liczbie kilkuset. Ich skład chemiczny może zdradzić obecność „samopodtrzymujących się procesów chemicznych” na planecie.

Wystrzelona w kosmos przed rokiem, ważąca tonę amerykańska sonda Kepler (600 mln dol.) przeszuka prawie 150 tys. gwiazd, mając na uwadze planety podobne do Ziemi (ich odkrycie to nieporównanie większe wyzwanie niż wypatrzenie martwych gazowych czy lodowych gigantów, jakich znamy już wiele), a przy okazji zbada inne ich parametry (kształty, orbity itd.). NASA i Europejska Agencja Kosmiczna planują już niezależnie od siebie dwie kolejne służące temu – ponadprzeciętnie ambitne technologicznie – misje kosmiczne (Terrestial Planet Finder i Darwin). W obu przypadkach elementy obserwatorium (moduły interferometru) zostaną umieszczone miliony kilometrów od Ziemi, poruszając się w zwiększających rozdzielczość obserwacji konstelacjach.

Na marginesie: wielce pomocne – może niekoniecznie ze względów praktycznych, ale z pewnością filozoficznych i psychologicznych – byłoby odkrycie we Wszechświecie innych niż nasza form inteligentnego życia. Program badawczy SETI (Search for Extra-Terrestrial Intelligence) trwa już od pół wieku (dokładnie – w kwietniu rocznica). Sceptycy powątpiewają w sens przedsięwzięcia, powołując się chętnie na paradoks Fermiego. Sygnalizuje on dysonans między szacunkowymi liczbami cywilizacji w Galaktyce, podawanymi przez Franka Drake’a, Carla Sagana, Isaaca Asimova i innych (żyjących i nie) apostołów SETI, a brakiem dochodzących od nich sygnałów. Brak dowodów nie jest jednak dowodem braku, wyjaśniają zwolennicy poszukiwań. Seth Shostak, astronom z SETI Institute w Mountain View, mówi: Zawsze można jakoś wytłumaczyć to, że nie znajdujemy inteligentnych obcych. Możemy ich przeoczyć na tysiące sposobów.

Od niedawna możemy mieć pewność, że przynajmniej w pewnym zakresie fal radiowych nie będziemy całkiem głusi. Złożona dziś z ponad 40, a docelowo około 400 radioteleskopów macierz Allen Telescope Array w północnej Kalifornii kieruje swe czasze ku gwiazdom w Galaktyce z czułością i efektywnością, o której Drake, rozpoczynając przed 50 laty projekt Ozma, mógł tylko pomarzyć (miliardy razy wyższą). Jeśli w Drodze Mlecznej występuje (lub występowało) dysponujące technologią życie, dowiemy się o tym nie później niż za ćwierć wieku.

Dokarmiać cudaków

Max Tegmark, nieortodoksyjny kosmolog z MIT, autor m.in. hipotezy Wszechświata matematycznego (teorii wszystkiego, mówiącej, że każda struktura matematyczna ma swój fizyczny odpowiednik), przekonuje, że w naszym postrzeganiu rzeczywistości zaszła w ciągu ostatnich paru dekad zasadnicza zmiana, zmiana wręcz paradygmatyczna – natura przestała wydawać się onieśmielająco tajemnicza, a zaczęła jawić się nam jako (zaledwie) osobliwie dziwaczna. Ten stan zdziwienia należy podtrzymywać. Jak sprawić, by niemal niezmienne od tysiącleci pytania nie przestawały frapować? Zalewać uczonych danymi z akceleratorów, sond kosmicznych, obserwatoriów naziemnych, laboratoriów, które, przecząc dotychczasowym teoriom, zmuszą ich do sformułowania nowych. Niech z pomocą sieci superkomputerów szukają prawidłowości w pozornym chaosie bitów. Nie oczekujmy odpowiedzi finalnych. „Przyszłe technologie, takie jak sztuczna inteligencja, komputery kwantowe, mogą zmienić świat – oznacza to, że największe pytania dopiero czekają na sformułowanie”, pisał w miesięczniku „Wired” jego założyciel Kevin Kelly.

Pozostawiając bez komentarza stosunek dwóch (mniej więcej) procent PKB przeznaczanych na badania naukowe w USA i Unii Europejskiej z kosztami prowadzenia działań wojennych na Bliskim Wschodzie lub sumą dotacji dla rolnictwa (dwa, trzy rzędy wielkości różnicy), należy wspomnieć o drugim kluczowym dla rozwoju wiedzy czynniku. O odwadze, która jest warunkiem koniecznym do sformułowania śmiałych teorii. Nękany przez inkwizycję Galileusz, spalony żywcem na Campo dei Fiori Giordano Bruno (notabene jeden z pierwszych głosicieli doktryny SETI, mówiącej, że planet jak Ziemia musi być w kosmosie więcej niż jedna), przyrównywany do małpy Darwin, a nawet Vera Rubin, której przełomowa publikacja naukowa o ciemnej materii została odrzucona przez kolegów kosmologów – wszyscy oni byli ludźmi mężnego serca. Heretykami. Jak mówi James D. Watson, współodkrywca struktury DNA, biochemik i genetyk, w latach 50. powszechnie uważany w branży za nieszkodliwego pajaca: W kwestiach zasadniczych większość ludzi się z nami nie zgodzi. Kiedy próbujesz wprowadzić zmiany, ludzie wybierają komfort robienia tego co inni. Z tym że jeśli robisz to co inni, raczej nie odkryjesz niczego nowego.

Jak i czy w ogóle wpłynie na tę odwagę cywilną ruch zwany umownie Nauką 2.0, polegający na promowaniu w środowisku naukowym swobodnej wymiany opinii, zapisków laboratoryjnych, pierwszych hipotez i – w opcji radykalnej – wystawianiu w Internecie szkiców publikacji naukowych? Teoretycznie pozytywnie – bo efekty dyskusji powinny przeważyć nad konsekwencjami ewentualnych nadużyć (kradzieży pomysłów). Przecież dobra nauka wykluwa się najczęściej właśnie z nieformalnych rozmów – jak to u Watsona i Francisa Cricka w Cambridge bywało, czyli przy kuflu ciemnego piwa. Teoretycznie w sieci łatwiej o wsparcie dla najbardziej nawet szalonej idei, by potem, zyskawszy wsparcie, iść wespół w zespół.

Nauka w powyższy sposób uspołeczniona może być więc generatorem nowych zadziwień, przekierowując uwagę społeczności naukowych na mniej ortodoksyjne teorie, ujęcia, interpretacje, których weryfikacja niekoniecznie musi (choć może) wymagać kosztownych eksperymentów. Pozwala łatwiej włączyć się w dyskusję naukowcom, lub wręcz miłośnikom nauki, spoza zamkniętych kręgów uniwersyteckich.

Jaki będzie wynik wielkiego eksperymentu, polegającego na zderzeniu tych tendencji z tradycyjnymi formami organizowania i finansowania nauki – o tym będziemy się przekonywać w coraz szybszym tempie.

Rozmowy z genetykiem Jamesem D. Watsonem, astronomem Sethem Shostakiem z SETI Institute oraz fizykiem Sethem Lloydem z MIT ukażą się wkrótce w POLITYCE.

 

RACHUNEK ZA POSTĘP, czyli przykłady słusznych ze wszech miar (jak się wydaje) projektów naukowych:

ITER, International Thermonuclear Experimental Reactor. Reaktor służący do testowania kontrolowanej reakcji termojądrowej w roli efektywnego źródła energii. Całkowity przewidywany koszt budowy i użytkowania przez 30–35 lat: ponad 10 mld euro. Podział kosztów: 50 proc. Unia Europejska, reszta – Chiny, Japonia, Rosja, Korea Południowa.

Wielki zderzacz hadronów. Akcelerator cząstek elementarnych pod Genewą. Środek świata dla większości współczesnych fizyków. Całkowity koszt – około 9 mld dol. Zderzacz w większości opłaca 20 członków Europejskiej Organizacji Badań Jądrowych. Pozostałe koszty ponosi kilkudziesięciu partnerów spoza Unii Europejskiej.

Projekt poznania ludzkiego genomu. Całkowity koszt badań (prowadzonych przez 13 lat) – około 3 mld dol. – poniesiony w większości przez amerykańskie Department of Energy oraz National Institutes of Health, agencję tamtejszego ministerstwa zdrowia. Projekt współfinansowały (udział od kilku do kilkuset milionów dolarów) także organizacje badawcze z Australii, Belgii, Chin, Estonii, Francji, Holandii, Japonii, Kanady, Korei Południowej, Niemiec, Rosji, Szwecji, Wielkiej Brytanii oraz Komisja Europejska.

Atacama Large Millimeter Array. Złożony z kilkudziesięciu radioteleskopów interferometr na pustyni w Chile. Orientacyjny koszt realizowanego projektu: 1,3 mld dol. Większość kosztów, pół na pół, ponoszą Europa i Ameryka Północna (reprezentowane przez Europejskie Obserwatorium Południowe, US National Science Foundation, National Research Council of Canada). Pozostała część (przypuszczalnie kilka procent) finansowana przez partnerów z Japonii, Chin i Tajwanu.

Misja Kepler. Obserwatorium kosmiczne poszukujące planet podobnych do Ziemi. Koszt: około 600 mln dol. Projekt autorski NASA. Podobne budżety (w wysokości kilkuset milionów dolarów/euro) przypisywane są do większości współczesnych naukowych misji kosmicznych.

Polityka 7.2010 (2743) z dnia 13.02.2010; Raport; s. 32
Oryginalny tytuł tekstu: "Czysta ciekawość"
Więcej na ten temat
Reklama

Czytaj także

null
Kraj

Przelewy już zatrzymane, prokuratorzy są na tropie. Jak odzyskać pieniądze wyprowadzone przez prawicę?

Maszyna ruszyła. Każdy dzień przynosi nowe doniesienia o skali nieprawidłowości w Funduszu Sprawiedliwości Zbigniewa Ziobry, ale właśnie ruszyły realne rozliczenia, w finale pozwalające odebrać nienależnie pobrane publiczne pieniądze. Minister sprawiedliwości Adam Bodnar powołał zespół prokuratorów do zbadania wydatków Funduszu Sprawiedliwości.

Violetta Krasnowska
06.02.2024
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną