Ogród pełen galaktyk

Siadaj i badaj
Dzięki Internetowi każdy z nas może uczestniczyć w prawdziwych badaniach naukowych nie ruszając się z domu. I mieć z tego satysfakcję oraz niemałą przyjemność.
Dwie galaktyki spiralne na kursie kolizyjnym. Gwiazdozbiór Panny.
NASA

Dwie galaktyki spiralne na kursie kolizyjnym. Gwiazdozbiór Panny.

Wielka Niedźwiedzica. Zderzenie dwóch galaktyk. Odległość - 0,5 mld. lat świetlnych od Ziemi
NASA

Wielka Niedźwiedzica. Zderzenie dwóch galaktyk. Odległość - 0,5 mld. lat świetlnych od Ziemi

Galaktyka Kijanka w gwiazdozbiorze Smoka, 420 milionów lat świetlnych. Jedno jej ramię jest rozciągnięte na odległość 280 tys. lat świetlnych w wyniku kolizji z kompaktową galaktyką widoczną z lewej górnej strony.
NASA, H. Ford (JHU), G. Illingworth (USCS/LO), M. Clampin (STScl), G. Hartig (STScl) and ESA/materiały prasowe

Galaktyka Kijanka w gwiazdozbiorze Smoka, 420 milionów lat świetlnych. Jedno jej ramię jest rozciągnięte na odległość 280 tys. lat świetlnych w wyniku kolizji z kompaktową galaktyką widoczną z lewej górnej strony.

Naukowcy zaczynają gubić się w gąszczu gromadzonych informacji – źródłem tej szokującej wiadomości nie jest żaden brukowiec, lecz prestiżowy tygodnik naukowy „Science”. Większość ankietowanych przez niego badaczy operuje na zbiorach danych wielkości ponad gigabajta, zaś co piąty przetwarza setki gigabajtów, a nawet terabajty. Dziś, kiedy terabajtowe dyski są montowane w zwykłych laptopach, nie wydaje się to imponujące, ale pamiętajmy, że gigabajt to tyle informacji, ile z grubsza zawiera wielotomowa encyklopedia.

Wielu przechowuje wyniki badań tylko we własnych laboratoriach, ale jedynie nieliczni mają pieniądze na ich fachowe archiwizowanie. Jednocześnie ponad 70 proc. stwierdza, że ich własne dane są niewystarczające – i szuka uzupełnień u kolegów. Przepływ informacji jest jednak utrudniony, a często wręcz niemożliwy ze względu na wielką różnorodność zarówno jej nośników, jak i programów służących do zapisu danych oraz ich odczytywania. Co więcej, niepełna dokumentacja tych programów to raczej reguła niż wyjątek.

Fizycy wyraźnie usłyszeli alarmowy dzwon, gdy jeden z zespołów badających właściwości cząstek elementarnych zapragnął skorzystać z wyników eksperymentu zakończonego ćwierć wieku temu. Ich odnalezienie i odczytanie zajęło prawie dwa lata! Rzecz tym bardziej pikantna, że kierownik zespołu (obecny dyrektor Instytutu Fizyki Maxa Plancka w Monachium Siegfried Bethke) brał udział w oryginalnym eksperymencie jako świeżo upieczony doktor i część danych, za którymi przyszło mu się uganiać, zebrał osobiście. Podobne przypadki mogą się powtarzać. Nierzadko zdarza się bowiem, że po zakończeniu skomplikowanego eksperymentu prowadzący go zespół (zwykle międzynarodowy) rozwiązuje się, osierocając uzyskane dane, które po kilku latach rozpraszają się dosłownie po całym świecie.

Tymczasem ilość danych potencjalnie nadających się do powtórnego wykorzystania rośnie w tempie przyprawiającym o zawrót głowy. Z samego tylko akceleratora LHC, pracującego od ponad roku w CERN pod Genewą, wypływa średnio około 40 terabajtów na dobę. Teleskop LSST, który za kilka lat zacznie pracować w Chile (POLITYKA 13/10), będzie generował „zaledwie” ćwierć terabajta na każdą obserwacyjną noc, ale i tak zarządzanie tą lawiną informacji jest jednym z najpoważniejszych problemów, jakie muszą rozwiązać jego konstruktorzy.

Podpatrywanie astronomów

W odpowiedzi na wyzwania zasygnalizowane przez przygodę Bethkego fizycy utworzyli w 2009 r. międzynarodowy zespół DPHEP (Data Preservation and Long Term Analysis in High Energy Physics), który ma opracować spójny system archiwizacji i udostępniania wyników badań prowadzonych w różnych laboratoriach. O konieczności archiwizowania danych nie trzeba nikogo przekonywać: dla wszystkich jest jasne, że mogą się w nich kryć odpowiedzi na pytania, których dzisiaj jeszcze nikt nie potrafi sformułować. Zasadniczym problemem są jak zwykle pieniądze. Według DPHEP sam tylko CERN musiałby przeznaczać na ten cel ponad 90 mln dol. rocznie. Obok finansowych piętrzą się oczywiście niebagatelne problemy logistyczne.

Trochę nieoczekiwanie dla siebie samych fizycy znaleźli wzory do naśladowania u astronomów. Po pierwsze, już od ponad 30 lat praktycznie wszystkie wyniki obserwacji astronomicznych są zapisywane w standardowym formacie FITS (Flexible Image Transport System). Po drugie, znaczna większość danych (w tym dane uzyskane poprzez NASA i ESA) jest publicznie udostępniana rok po ich uzyskaniu. NASA zapewnia nawet nieskromnie, że będzie je udostępniała „nieograniczenie długo”. Po trzecie, instytucje astronomiczne jako pierwsze zachęciły internautów do analizowaniu danych za pomocą komputerów osobistych. Miłośnicy astronomii zainteresowani udziałem w autentycznych badaniach naukowych mogą dołączyć do któregoś projektu z serii @home lub Zooniverse i – nie ruszając się z domu – odbywać długie wycieczki w kosmos.

Fizykom trudno będzie skopiować to wszystko bez zmian – choćby dlatego, że dwa eksperymenty przeprowadzone na tym samym akceleratorze mogą się różnić nieporównanie bardziej niż dwie obserwacje wykonane za pomocą różnych teleskopów. Sami mówią jednak, że nad rozwiązaniami przyjętymi przez astronomów warto się zastanowić. Udostępnienie dużych zbiorów danych amatorom i umożliwienie im udziału w badaniach było ruchem równie odważnym co założenie Wikipedii. Wbrew opiniom sceptyków okazał się on niezwykle skuteczny, o czym świadczą miliony zaangażowanych internautów i wartościowe wyniki osiągnięte przy ich pomocy.

Pierwszą taką inicjatywą był działający od 12 lat projekt Seti@home, którego uczestnicy poszukują sygnałów nadawanych przez cywilizacje pozaziemskie. Dane pochodzą z 305-metrowego radioteleskopu w Arecibo na Puerto Rico (dzięki niemu Aleksander Wolszczan odkrył pierwsze planety pozasłoneczne) i napływają w tempie prawie 2,5 GB na godzinę. Przedsięwzięciu patronuje jeden z najlepszych uniwersytetów amerykańskich – University of California w Berkeley.

Seti@home można traktować z przymrużeniem oka, ale działający na takich samych zasadach i uruchomiony w 2000 r. Folding@home jest już czysto naukowym programem nastawionym na badania z dziedziny dynamiki molekularnej. Młodszy od niego o pięć lat Einstein@home analizuje sygnały z detektorów fal grawitacyjnych, znajdujących się w stanach Waszyngton i Luizjana, zaś od 2007 r. działa projekt MilkyWay@home, którego uczestnicy odtwarzają trójwymiarową strukturę naszej Galaktyki (Drogi Mlecznej).

Pełna lista projektów @home znajduje się na stronie http://distributedcomputing.info/projects.html. Ich uczestnicy udostępniają naukowcom swoje komputery, które po zainstalowaniu odpowiedniego oprogramowania pracują pod dyktando centralnego serwera (z reguły tylko wtedy, kiedy nie wykonują żadnych innych zadań). Informacje o postępach obliczeń nie są dostępne na bieżąco – trzeba się po nie wybrać na stronę domową projektu.

Czytaj także

Aktualności, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną