Pajęczyna geniuszy
Internet pozwala na łączenie wysiłków uczonych bez pośrednictwa instytucji naukowych. Tak powstaje zjawisko zwane Nauką 2.0.

David Baker, profesor University of Washington, zajmuje się komputerowym modelowaniem struktur białkowych. Białka, olbrzymie cząsteczki chemiczne zbudowane z długich łańcuchów aminokwasów, odpowiadają w organizmach za wiele ważnych funkcji. Właściwości białek zależą zaś od tego, jak te długie łańcuchy zwiną się w przestrzeni i jaka w rezultacie będzie ich struktura trójwymiarowa. Gdyby tak zdobyć umiejętność teoretycznego przewidywania struktury białkowej, o wiele lepiej zrozumielibyśmy biochemiczne mechanizmy działania organizmów, otworzyłaby się także droga do nowych leków i terapii

Mózg światowy

Nic dziwnego, że biolodzy i chemicy zajmują się tym problemem od kilkudziesięciu lat, a główna trudność polega na skali wyzwania. Łańcuch białkowy, liczący zaledwie 100 aminokwasów, może bowiem teoretycznie ułożyć się w przestrzeni na tak wiele sposobów, że przetestowanie każdej z konfiguracji – zakładając, że test trwałby tylko kwadrylionową część sekundy – wymagałoby czasu o 60 rzędów wielkości dłuższego, niż liczy sobie Wszechświat! Uczeni nie poddają się jednak, ograniczając skalę problemu przez stosowanie coraz wydajniejszych modeli matematycznych struktur białkowych, które następnie sprawdzają na coraz szybszych komputerach.
 

W istocie bioinformatycy nigdy nie są zadowoleni z dostępnych mocy komputerowych, dlatego prof. Baker wpadł na pomysł, by wykorzystać uśpioną moc ukrytą w sieci. Większość spośród milionów komputerów podłączonych do Internetu rzadko pracuje aktywnie. Baker poprosił więc internautów, by dobrowolnie udostępnili swoje mikroprocesory w czasie wolnym. Internauci odpowiedzieli na apel z entuzjazmem, w efekcie powstał sieciowy superkomputer (wcześniej, bo już w 1999 r., podobny pomysł zastosowali astronomowie poszukujący śladów życia w kosmosie – do analizy sygnałów z radioteleskopów zaprosili internautów w ramach programu Seti@home). W sierpniu br., w projekcie nazwanym Rosetta@home, uczestniczyło 86 tys. ochotników, a ich połączona moc obliczeniowa osiągnęła 66 teraflopów, czyli 66 bln operacji na sekundę. Odpowiada to 25 miejscu na liście rankingowej najszybszych pojedynczych superkomputerów, najmocniejszy superkomputer świata – RoadRunner – liczy z szybkością jednego petaflopa, czyli dwudziestokrotnie szybciej). Projekt Rosetta&home służy rozwiązywaniu licznych problemów badawczych, z poszukiwaniem leku na chorobę Alzheimera włącznie.

Niedawno jednak Baker odkrył, że sama moc obliczeniowa i dobry model matematyczny to zbyt mało. I postanowił skorzystać z ukrytej w sieci inteligencji internautów, zapraszając ich do swoistej zabawy. Nazywa się ona Foldit i jest sieciową grą komputerową. Tyle tylko, że zamiast strzelać do wirtualnych wrogów, gracze mają rozwiązywać trójwymiarowe zagadki geometryczne, polegające na dopasowywaniu różnych struktur białkowych. Foldit opracował dla Bakera zawodowy projektant gier Zoran Popović. Amerykański uczony liczy, że w ten sposób, odwołując się do fenomenu inteligencji zbiorowej, łatwiej zdoła rozwiązywać problemy, z jakimi nie radzą sobie komputery pozbawione wyobraźni przestrzennej.

Rosetta@home i Foldit to tylko dwa spektakularne przykłady przybierającego na sile zjawiska, któremu coraz częściej nadaje się miano Nauki 2.0. Mitchell Waldrop w najnowszym wrześniowym numerze miesięcznika „Świat Nauki” analizuje inne nowatorskie formy uprawiania nauki, umożliwione przez Internet. Po pierwsze, coraz więcej naukowców jest niezadowolonych z tradycyjnego sposobu publikowania wyników badań. Jak wiadomo, ważnym kryterium oceny jakości badań jest tytuł czasopisma, w jakim zostały ogłoszone wyniki. Artykuł w „Science” lub „Nature” znaczy dużo więcej niż tekst ogłoszony w „Postępach biochemii”.

Bunt uczonych

Przez dziesiątki lat rozwoju nauki powstał cały system czasopism naukowych, zdominowany przez kilku wielkich zachodnich wydawców, którzy czerpią ze swej aktywności olbrzymie profity. Dopóki nie było alternatywy, nikt go nie kwestionował. Gdy jednak „wybuchł” Internet, pojawiło się wiele wątpliwości. Na przykład, czy wyniki badań finansowanych z funduszy publicznych nie powinny być własnością publiczną, czyli po prostu być dostępne za darmo w Internecie? Takie rozwiązanie oznaczałoby jednak, że wydawcom czasopism osunąłby się grunt spod nóg – wszak większość badań podstawowych na całym świecie finansowana jest z pieniędzy publicznych. W wyniku długich dyskusji pod koniec ub.r. prezydent Stanów Zjednoczonych George Bush podpisał ustawę, zgodnie z którą wyniki wszystkich badań finansowanych przez Narodowe Instytuty Zdrowia mają być ogłaszane w Internecie w 12 miesięcy po ich publikacji w czasopiśmie naukowym. Natomiast dane uzyskane w czasie eksperymentów, np. sekwencje genomów, mają być ogłaszane w domenie publicznej tak szybko, jak to możliwe ze względów technicznych. Podobną decyzję podjęła Europejska Rada Badawcza. Również w Polsce idea Open Access, czyli otwartego dostępu do wiedzy naukowej, zyskuje zwolenników, jej gorącym orędownikiem jest m.in. prof. Marek Niezgódka, szef Interdyscyplinarnego Centrum Modelowania Uniwersytetu Warszawskiego, który planuje utworzenie w swoim ośrodku repozytorium publikacji naukowych.

Taki kompromis nie satysfakcjonuje wszystkich, wielu uczonym nie rozwiązuje bowiem innego problemu: długiego czasu, jaki musi upłynąć od wysłania artykułu do jego publikacji. Czas ten jest potrzebny m.in. na przygotowanie recenzji. Czy jednak można sobie pozwolić na kilkumiesięczne oczekiwanie w świecie, w którym w badaniach nad najgorętszymi tematami w dziedzinie biologii konkurują ze sobą jednocześnie setki zespołów? A może odwrócić problem – owszem, niech publikacja w recenzowanym czasopiśmie nadal będzie etapem wieńczącym proces badawczy. Internet można jednak wykorzystać do tego, by pokazywać na żywo, co się dzieje w laboratorium.

Tak narodziła się idea OpenNotebook Science, czyli otwartych dzienników laboratoryjnych. Uczeni, zamiast prowadzić notatki ze swych eksperymentów w prywatnych notesach, używają do tego podobnego oprogramowania, jakie wykorzystuje słynna Wikipedia. Przypomnijmy, Wikipedia jest największą encyklopedią na świecie, którą tworzą tysiące internautów. Każdy może w niej tworzyć swoje hasła, jak również poprawiać lub komentować hasła stworzone przez innych. Najważniejsze, że ślady wszystkich ingerencji zostają zapamiętane, łatwo więc odtworzyć cały proces tworzenia treści. Mechanizm taki idealnie nadaje się do prowadzenia zbiorowego dziennika laboratoryjnego i ułatwia dzielenie się wiedzą oraz unikanie powtarzania prób, jakie wykonali już inni badacze.

Idea sieciowej współpracy uczonych przejawia się w takich projektach jak OpenWetWare, który powstał w 2005 r. w amerykańskim Massachusetts Institute of Technology i jest obecnie finansowany przez National Science Foundation. OpenWet-Ware to system wykorzystujący oprogramowanie wiki, przystosowany do potrzeb biologów. Okazuje się – jak dokumentuje w „Świecie Nauki” Waldrop – że system ten posłużył do stworzenia ponad 6 tys. witryn przez laboratoria na pięciu kontynentach. Podobne systemy współpracy powstają dla innych dyscyplin naukowych.

Uczonym nie wystarcza jednak tylko wymiana opisów doświadczeń. Zamiast opisywać trudną procedurę laboratoryjną, czasem prościej pokazać ją na wideo. Tak jak robi to Journal of Visualized Experments (www.jove.com), który choć nie publikuje tekstów, uznany został kilka dni temu za czasopismo naukowe, indeksowane w światowym systemie literatury biologicznej i medycznej PubMed. Z kolei wszyscy interesujący się nanotechnologiami mogą na bieżąco obserwować postęp badań prowadzonych w ramach dużego europejskiego projektu naukowego „Nano2hybrids” (www.nano2hybrids.net). Nawet jeśli nie wszystko jest zrozumiałe, ustawienie kamer wideo w laboratorium jest najlepszym sposobem przybliżenia własnych badań nie tylko innym naukowcom, ale także zwykłym śmiertelnikom ciekawym, na co idą płacone przez nich podatki.

Jeszcze innym fenomenem z obszaru Nauki 2.0 jest rozkwit naukowej blogosfery. Uczeni odkrywają, podobnie jak politycy, dziennikarze, artyści, że mogą komunikować się z całym światem bez pośredników. Od trzech lat w Stanach Zjednoczonych odbywa się konferencja blogujących naukowców, a wydarzenie to za każdym razem wieńczy wydanie książkowej antologii najlepszych wpisów. Opublikowane dotychczas dwie antologie „The Open Laboratory. The Best Science Writing on Blogs” są dowodem, że nauka ciągle jest fascynującą dziedziną, o której można barwnie opowiadać. Fala naukowego blogowania dotarła także do Europy, gdzie 30 sierpnia w Londynie odbyła się konferencja „Science Blogging 2008: London”, której patronował tygodnik „Nature” i Royal Institution.

Rzeczpospolita 2.0

Niestety, fala Nauki 2.0 rozbija się o granice Rzeczpospolitej. Jednym z nielicznych polskich naukowców, aktywnie stosujących metody Nauki 2.0, jest Paweł Szczęsny, bioinformatyk prowadzący blog „Freelancing science”. – Dziś, by prowadzić badania w takiej dyscyplinie jak bioinformatyka, nie potrzeba formalnego zatrudnienia w instytucji naukowej – twierdzi. – Wystarczy komputer w domu, dostęp do oprogramowania, literatury i sieci współpracy, co załatwia Internet. Szczęsny podkreśla jednak, że aplikowanie o subwencje badawcze jest niemożliwe bez wsparcia jednostki naukowej. – Mam szczęście współpracować od lat z Instytutem Biochemii i Biofizyki PAN, którego dyrekcja nie tylko zgodziła się na taki nietypowy układ, ale także pomaga mi uzyskać stopień doktora. Szczęsny, naukowy freelancer, pomaga innym rozwiązywać problemy badawcze, ale i tworzy własne projekty, finansowane przez instytucje publiczne i prywatnych sponsorów.

To, co w Polsce uważane jest za dziwactwo, w Stanach Zjednoczonych staje się powszechnym zjawiskiem. Coraz więcej badaczy odkrywa, że skostniałe struktury akademickie często bardziej przeszkadzają, niż pomagają w prowadzeniu badań. Po co więc się w nich męczyć? Jednym z pierwszych buntowników, który wyłamał się z systemu, był Craig Venter, genialny biolog i przedsiębiorca. W latach 90. XX w. stwierdził, że samodzielnie rzuci wyzwanie oficjalnemu światu nauki, który właśnie realizował wielki międzynarodowy Projekt Poznania Genomu Ludzkiego. Venter zdołał pozyskać środki prywatne, wielokrotnie mniejsze od miliardowych nakładów na oficjalny projekt, po to, by osiągnąć podobne, jeśli nie lepsze rezultaty. Dziś prywatnych ośrodków, prowadzących badania poza oficjalnymi strukturami naukowymi i akademickimi, jest w Stanach więcej. Jednocześnie rozwijają się sieci m.in. emerytowanych uczonych, którzy z domowego zacisza rozwiązują problemy naukowe dla dużych koncernów, niepotrafiących ich rozwiązać we własnych laboratoriach.

Christopher T. Hill, politolog z George Mason University w USA, ogłosił niedawno tezę, że wkraczamy w epokę postnaukową. Nie oznacza to, że nauka traci na znaczeniu, wprost przeciwnie. Traci natomiast tradycyjny sposób organizacji badań, odwołujący się do anachronicznych struktur życia naukowego. Świat nowych technologii komunikacyjnych umożliwił narodziny zjawiska Nauki 2.0, w którym mniej ważne są stopnie naukowe i formalnie zaliczone szczeble kariery, a bardziej rzeczywista kreatywność i umiejętność rozwiązywania problemów. To nic nowego, wszak podstawy nowoczesnej nauki tworzyli genialni amatorzy, by wspomnieć Kopernika, Galileusza, Keplera. Bo istotą i podstawową funkcją nauki nie są akademickie hierarchie, lecz produkcja i upowszechnianie wiedzy. Niestety, w Polsce, podczas trwającej debaty o reformie systemu nauki, najmniej się o tym mówi, nie zauważając, jak bardzo nauka zmieniła się w ostatnim czasie.
 

Czytaj także

Aktualności, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj