Osoby czytające wydania polityki

Wiarygodność w czasach niepewności

Wypróbuj za 11,90 zł!

Subskrybuj
Społeczeństwo

My multiinstrumentaliści

Modelowanie zjawisk

Jak okiełznać świat? Jak okiełznać świat? werkunz1 / Flickr CC by SA
O tym, jak próbujemy okiełznać złożoność świata oraz o ciemnej i jasnej stronie ludzkiej nieobliczalności z prof. Michałem Kleiberem rozmawia Sławomir Mizerski.

Sławomir Mizerski: – Kim jest specjalista od projektowania modeli komputerowych? Na czym właściwie pan się zna?

Michał Kleiber: – Po angielsku dziedzina, którą uprawiam, nazywa się computational science. To coś, co z braku lepszego terminu, nazywamy po polsku – nauki obliczeniowe. Można to określić także jako modelowanie i symulacja komputerowa. Dziedzina, która leży na pograniczu informatyki, matematyki i konkretnej dyscypliny specjalistycznej, której dotyczy dany model i symulacja, np. inżynierii materiałowej, medycyny, fizyki, astronomii, biologii czy prognozowania zjawisk atmosferycznych.

 

Każdy poważny uczony musi łyknąć jej podstawy?

Jeszcze kilkanaście lat temu wielu uczonych wyobrażało sobie, że jeśli będą potrzebowali pomocy komputera, zaproszą informatyka i on im zrobi obliczenia. Dzisiaj sytuacja się zasadniczo zmieniła, bo możliwość symulacji komputerowej rzutuje na samo definiowanie zadania badawczego. Uczony musi mieć głęboką wiedzę o możliwości wykorzystania komputerów, bo to pozwala mu formułować problemy w języku, który nadaje się do przeprowadzenia symulacji. W tej chwili nauce potrzebni są multiinstrumentaliści. Właściwie w każdej dziedzinie nauki istnieje filar obliczeniowy związany z modelowaniem komputerowym.

Rozumiem, że chodzi o koszty i czas?

Nie tylko. Są osiągnięcia naukowe, które w ogóle byłyby niemożliwe bez narzędzi do modelowania i symulacji komputerowej. Takie prace jak rozszyfrowanie genomu były możliwe jedynie dzięki symulacjom. Nowoczesne leki są projektowane komputerowo na podstawie skomplikowanych symulacji związków chemicznych. Inaczej nigdy by nie powstały.

Komputer sam wymyśla te lekarstwa?

Tak, pokazuje optymalną drogę do stworzenia skutecznego leku. Ale człowiek musi mu najpierw postawić właściwe zadania, a więc musi wiedzieć, co chce osiągnąć.

Zatem jest pan jednym z multiinstrumentalistów nowoczesnej nauki?

Mam podwójne wykształcenie – jestem inżynierem po politechnice i matematykiem po uniwersytecie. Współpracowałem z inżynierami różnych specjalności, fizykami, lekarzami, ekologami. Pracując przez kilka lat na uniwersytecie w Tokio, zajmowałem się oceną bezpieczeństwa reaktorów jądrowych. W USA brałem udział w badaniach dotyczących projektowania nowych materiałów. Zajmowałem się także symulacją endoprotez stawu biodrowego. Ćwierć wieku temu, pracując na wydziale aeronautyki Uniwersytetu w Stuttgarcie, brałem udział w symulacjach promu kosmicznego „Columbia”. Budowałem tam wielki program, który posłużył do symulacji zachowania się skrzydła tego promu. W wyniku symulacji całą drogę takiego pojazdu można prześledzić w rzeczywistości wirtualnej. Ale żeby to było możliwe, należy najpierw rozwiązać mnóstwo problemów cząstkowych. Jednym z takich, którymi ja się zajmowałem, była symulacja zachowania się konstrukcji kadłuba. Poddawaliśmy ją w komputerze najróżniejszym obciążeniom i skomplikowanym kombinacjom tych obciążeń, od najbardziej oczywistych aż do mniej typowych, np. zderzenia z chmarą ptaków.

Pana specjalnością jest symulacja zjawisk związanych z materiałami. Czy nie lepiej testować je mechanicznie?

Żeby dokładnie zbadać własności fizyczne materiału, trzeba go na różne strony rozciągać, poddawać rozmaitym – jak my to mówimy – historiom obciążenia: mechanicznym, termicznym. Takich historii, reprezentatywnych dla wszystkiego, co może się w rzeczywistości zdarzyć z materiałem (będącym przecież częścią złożonej konstrukcji, np. samolotu), jest bardzo wiele. Zrobienie fizycznych eksperymentów na każdą okoliczność byłoby koszmarnie drogie i skrajnie trudne. Trzeba więc budować model do badań prowadzonych za pomocą komputera. Aby był dobry, należy oczywiście dobrze zrozumieć strukturę materiału. Ale gdy już dostaniemy wyniki badań symulacyjnych, należy wykonać stosowne eksperymenty fizyczne, aby sprawdzić, czy stworzony model jest dostatecznie wiarygodny. Jeśli przyłapiemy symulator na tym, że w jakimś jednym przypadku daje inny wynik niż prosty eksperyment fizyczny, musimy zmienić cały symulator.

W którym momencie wiemy na pewno, że symulator w stu procentach właściwie udaje rzeczywistość?

Nie ma granicy ustalonej raz na zawsze. Są tylko granice wyznaczone przez ludzki rozsądek i praktykę.

 

Pana praca przy modelowaniu drgań dachu nad stadionem olimpijskim w Monachium do dziś decyduje o bezpieczeństwie, a nawet życiu wielu tysięcy ludzi.

To była nowatorska konstrukcja, a gdy ją postawiono, uświadomiono sobie, że przy ekstremalnych wiatrach trudno będzie przewidzieć, jak się zachowa. Dach zaczynał drgać i były to drgania o bardzo dużej amplitudzie, liczonej nie tylko w centymetrach. Drgający dach to bardzo złożona konstrukcja, na dodatek oddziałują na nią różne czynniki zewnętrzne, z których wiele, jak np. wiatr, ma trudny do precyzyjnego ustalenia charakter. Mamy tu setki parametrów niemożliwych do określenia z pełną dokładnością, czyli deterministycznie, tylko w sposób, który wyrażany jest przez rozkłady prawdopodobieństwa. To bardzo komplikuje problem.

Czy uczony, próbując uchwycić liczbowo zjawiska losowe, których przecież nie da się przewidzieć, nie wkracza przypadkiem na teren zarezerwowany dla Pana Boga?

Teoria prawdopodobieństwa podchodzi do zagadnienia losowości w sposób formalny. Prawda jest taka, że nawet pozornie identyczne części wyprodukowane taśmowo w fabryce różnią się między sobą. Mówimy, że pewne ich parametry mają charakter losowy, zmieniający się. Jeśli pochodzą od dobrego producenta, wtedy różnią się bardzo mało, gdy producent jest gorszy – różnice są większe. Wszystkie one są zatem obarczone pewnym błędem względem nominalnej, postulowanej wartości. Przy konstruowaniu dużego układu z takich elementów te błędy mogą się kumulować, powstają ich niezliczone kombinacje, co często prowadzić może do nieszczęść. Na gruncie tzw. teorii niezawodności próbujemy ocenić prawdopodobieństwo awarii takich układów przy założeniu, że znamy zarówno niedoskonałości wykonania poszczególnych części systemu, jak i losowe charakterystyki oddziaływań świata zewnętrznego na ten system.

Na zdrowy rozum to robota niemożliwa do wykonania.

Trudno sobie wyobrazić do końca przekonujący eksperyment fizyczny w tej sprawie. Musielibyśmy wziąć jakiś jeden element wykonany w określony sposób, zobaczyć, jak on wpływa na działanie całości, potem zastąpić go elementem wykonanym prawie identycznie, ale jednak trochę inaczej – i tak w nieskończoność. A przecież to samo należałoby wykonać w stosunku do innych elementów, a także do olbrzymiej liczby ich kombinacji.

Ale rozumiem, że włączamy komputer.

Włączamy i tworzymy taki symulator, który pozwala manipulować własnościami tych elementów. W ten sposób możemy przetestować miliony kombinacji różnych wartości parametrów charakteryzujących te elementy. Z tym że w każdym bardziej złożonym systemie – nie mówiąc już o tak skomplikowanym jak np. reaktor jądrowy – tych elementów oraz kombinacji ich właściwości jest tak dużo, że nie dałoby się tego zrobić nawet na najmocniejszym komputerze. Trzeba tu zastosować metody odwołujące się do teorii prawdopodobieństwa. To jest być może najważniejsza część całej problematyki symulacji. Umożliwia nie tylko wirtualne prowadzenie skomplikowanych eksperymentów, ale także uwzględnienie niedoskonałości ludzkiej natury przy tworzeniu poszczególnych elementów każdego złożonego systemu i nieprzewidywalności przyrody otaczającej system.

Te systemy niosą ze sobą dużą niepewność, bo budował je człowiek.

Analizujemy układy w warunkach niepełnej informacji. Nie wiemy do końca, jak poszczególne elementy układu wyglądają ani jak dobry jest matematyczny model, któremu przypisujemy zdolność reprezentowania układu rzeczywistego. Między nami mówiąc, tak funkcjonuje całe nasze życie. Z zasady podejmujemy decyzje zawodowe i osobiste w warunkach niepewności. Nawet o tym nie wiedząc, przed podjęciem decyzji budujemy sobie myślowo model danej sytuacji mniej lub bardziej świadomi ryzyka związanego z niepewną naturą elementów tego modelu.

Chociaż często wydaje nam się, że wiemy wszystko.

Dokonując wyboru nigdy nie wiemy do końca, czy dobrze wybraliśmy. Człowiek zaakceptował to, że w życiu ponosi jakieś ryzyko, chociaż ufa, że swoje decyzje podejmuje w miarę racjonalnie. Ale wyobraźmy sobie sytuację projektanta promu kosmicznego. Ma on miliony elementów w projektowanym przez siebie systemie i co do każdego istnieje jakaś niepewność dotycząca jego rzeczywistych własności. Mimo to projektant musi je złożyć i zaprojektować całość w taki sposób, aby mógł powiedzieć szefom, że to na pewno będzie skutecznie i bezpiecznie latało. Musi mieć zatem wypracowaną całą metodologię pozwalającą mu poruszać się w warunkach niepełnej informacji na temat tego miliona elementów. Zdolność do wykorzystywania informacji nie do końca pewnej to absolutne sedno współczesnej nauki i techniki.

 

Głupota nie zna granic

Zatem poradzono sobie z tym problemem.

W dużym stopniu. Największym problemem pozostają błędy ludzkie, bo ludzie potrafią zepsuć wszystko. Tam, gdzie w grę wchodzą elementy świata materialnego, robi się pomiary i korzystając z narzędzi teorii prawdopodobieństwa wyciąga rozsądne wnioski. Ale potem przychodzi człowiek, który poprzedniego dnia miał imieniny, jest chory albo żona go zdradziła i naciska niewłaściwy guzik. To są błędy grube, bardzo trudne albo wręcz niemożliwe do ujęcia w analizie, w modelu matematycznym.

Dlaczego? Przecież błąd ludzki to także zdarzenie losowe.

Człowiek jest w stanie popełniać głupstwa, których żaden inny człowiek nawet nie jest w stanie sobie wyobrazić.

Potwierdza się, że głupota ludzka nie zna granic?

Jest pewna standardowa głupota, którą ma w sobie każdy z nas. I ona się daje jakoś ocenić, ująć w modelu. Niestety, jest bardzo wielu ludzi, którzy całkowicie wychodzą poza standard i popełniają głupstwa, zaniedbania wręcz niewyobrażalne.

To może zastąpić ich komputerami.

Problem jest ciekawy. Mamy np. automatycznego pilota, który sam potrafi sprowadzić samolot na ziemię. Ale ten automat ma swoje wady, bo nie radzi sobie w pewnych zupełnie nieoczekiwanych sytuacjach. A człowiek ma genialną zdolność do racjonalnego rozpatrywania całkowicie nowych okoliczności.

To druga, jaśniejsza strona ludzkiej nieobliczalności.

Tak. I rodzi się pytanie: co by pan wolał? Siedzieć w samolocie obsługiwanym przez ograniczony automat czy przez człowieka zdolnego do popełnienia najgłupszych błędów?

Jeden po prostu popełnia inne błędy niż drugi.

Ale z sytuacji kompletnie nieprzewidywalnych, związanych np. z atakiem terrorystów, wyprowadzić nas może tylko człowiek. W technice mamy do czynienia z wielkim problemem: ile ma być w niej automatyzacji? Osobiście mam wrażenie, że w wielu sytuacjach ludzie wciąż bardziej ufają innym ludziom, niezależnie od ich słabości i defektów.

Odpadnięcie pianki izolacyjnej w promie kosmicznym to błąd modelu czy człowieka?

Błąd wykonania, czyli człowieka. Choć oczywiście można by pomyśleć o takim wzbogaceniu modelu promu, poddawanego analizom komputerowym, które ujmowałyby możliwość takiej awarii. Z promem sprawa wygląda ciekawie. Kiedy w 2003 r. odpadł fragment obudowy „Columbii”, szybko ustalono, gdzie nastąpił błąd. Potem przez 2,5 roku pracowano nad tym, aby to się nie powtórzyło. A teraz okazało się, że w promie „Discovery” wystąpiło podobne zjawisko. Ale trzeba pamiętać, że promy to konstrukcja ekstremalna, niestandardowa.

To znaczy, że nie da się zapewnić absolutnej niezawodności jej działania?

Nigdy nie jesteśmy w stanie zagwarantować stuprocentowego bezpieczeństwa działania czegokolwiek. Otwarta pozostaje kwestia – jak małe czy też jak duże będzie to potencjalne zagrożenie? Analiza bezpieczeństwa w windzie, wieżowcu czy w samolocie pozwala stwierdzić, że prawdopodobieństwo wypadku jest mniejsze niż jakaś założona wartość, np. 0,000000001. Ale to nigdy nie będzie zero, bo tego się po prostu nie da zrobić. O tym oczywiście nie mówi się szeroko, bo ludzie nie lubią wiedzieć o tym ułamku procenta, kiedy jadą windą. Zwykle margines awarii, katastrofy jest tak malutki, że przechodzimy nad nim do porządku, życie toczy się dalej. Ale chciałoby się ten margines jeszcze zmniejszyć. Tylko że jego zmniejszenie spowodowałoby gigantyczne koszty związane z dodatkowymi badaniami, analizami, powołaniem wyspecjalizowanych zespołów. Powstaje pytanie, czy to się opłaca? Czy chciałby pan zmniejszenia jeszcze o ułamek procenta prawdopodobieństwa wypadków lotniczych, jeśli pański bilet miałby w wyniku tego kosztować pięć razy więcej?

No, nie wiem. To brutalne pytanie.

Z pewnością trudne. Na nasze szczęście ani pan, ani ja nie musimy na nie odpowiadać. Są jednak tacy, którzy muszą, bo odpowiadają za nasze bezpieczeństwo.

Rozumiem, że oni decydują: kończymy prace nad poziomem bezpieczeństwa na tym miejscu po przecinku, bo inaczej pękniemy finansowo my albo nasi klienci.

Właśnie. Filozofia projektowania złożonych konstrukcji, w których istnieje zagrożenie katastrofą, polega na tym, aby w ostatecznej kalkulacji ująć zarówno nasz szacunek dla ludzkiego życia, jak i fundusze, którymi się dysponuje. W sposób niezauważalny dla wielu podejmowane są tu decyzje naprawdę dramatyczne i trudne.

Symulacja komputerowa to próba okiełznania złożoności świata, zmniejszenia jego nieprzewidywalności. Jak daleko człowiek może się na tej drodze posunąć? Czy możliwe jest modelowanie zachowań społecznych na wielką skalę?

Oczywiście robi się takie modele, bo pomagają w analizach socjologicznych. Ale do właściwej symulacji dużej populacji trzeba mieć szczegółowe i wiarygodne dane o zachowaniu ludzi, ich wzajemnym oddziaływaniu na siebie i modyfikowaniu zachowań w wyniku tych oddziaływań.

Dałoby się modelować np. aktualną sytuację w kraju i ewentualny rozwój tej sytuacji? Rządzący na pewno chcieliby wiedzieć, co się zdarzy za rok, dwa, czy będzie kryzys, fala strajków, rewolucja.

Na Uniwersytecie Warszawskim został niedawno uruchomiony bardzo mocny komputer Cray. Moim marzeniem jest, by wykorzystać go także do symulowania zjawisk związanych z funkcjonowaniem państwa. We wszystkich krajach rozwiniętych istnieją analityczne centra rządowe, które robią symulacje ekonomiczne, społeczne. Przyszłe Narodowe Centrum Studiów Strategicznych powinno wykorzystywać takie techniki symulacyjne. Ale nie chciałbym, żeby to wszystko brzmiało zbyt prymitywnie – do stworzenia wiarygodnych modeli funkcjonowania społeczeństw jeszcze daleka droga.

 

Pan wie, co mam na myśli

Dziedzina, o której mówimy, musi się wiązać z istnieniem niezwykle nowoczesnych, szybkich komputerów. Co to za cacka?

Im silniejszy komputer, tym dokładniejsza i poprowadzona w większej skali symulacja. Dlatego trwa wyścig, żeby zrobić jeszcze lepszy komputer. Do niedawna najsilniejszym był tzw. Earth Simulator w Jokohamie koło Tokio, przeznaczony m.in. do badań związanych z trzęsieniami ziemi, ochroną środowiska i prognozowaniem pogody. Ma moc obliczeniową ok. 10 tys. razy większą od standardowego komputera PC – potrafi teoretycznie wykonywać ponad 40 tys. gigaflopsów (4x1013 operacji arytmetycznych na sekundę). Prawda jest jednak taka, że dochodzimy do kresu możliwości obecnej technologii w budowie komputerów.

Krzem już się tu nie sprawdza?

Komputery przyszłości zapewne nie będą bazowały na krzemie. Koncepcje tworzenia silnych komputerów są zresztą różne. Kiedyś uważało się, że kluczem do sukcesu jest bardzo szybki procesor, ale okazało się, że z czysto fizycznych powodów nie da się go dalej ulepszać. Powstały zatem koncepcje maszyn wieloprocesorowych. Zamiast budować jeden silny komputer, można spróbować użyć wielu słabszych i tak je ze sobą sprząc, by tworzyły moc komputerową zbliżoną do tego silnego. To pomysł kuszący zwłaszcza dzisiaj, gdy na świecie jest wiele spiętych w sieć komputerów, które, jak wiemy, przez większą część doby nie pracują. Ta koncepcja ma nazwę obliczeń gridowych. Chodzi o to, aby stworzyć taki system porozumiewania się tych komputerów, żeby mogły przetwarzać wielkie zadania współpracując ze sobą. Przychodziłbym wtedy do swojego peceta, zapuszczał jakieś olbrzymie zadanie, a on wyszukiwałby w różnych miejscach świata inne komputery, których akurat nikt nie używa i zatrudniał je. To bardzo nowoczesna koncepcja, z sukcesem rozwijana m.in. w Polsce. Nasi uczeni koordynują kilka wielkich europejskich programów naukowych. Obliczenia gridowe mogą stać się w przyszłości polską specjalnością. Potencjał rozwojowy jest fantastyczny, bo ten pomysł pozwala wykorzystywać istniejące komputery do obliczeń wymagających wielkich mocy przetwarzania.

Czy komputery mogą być inteligentne?

Jeśli inteligencja to zdolność do radzenia sobie w nieoczekiwanych sytuacjach, trudno wyobrazić sobie, aby komputer we wszystkim dorównał człowiekowi. Ale może z nim owocnie współpracować. Poprzez testy i symulacje komputerowe obserwujący je człowiek wyrabia w sobie intuicję i kreatywność. Dzięki komputerowi widzi zdarzenia, ich kombinacje, których nie miałby szans zobaczyć w rzeczywistości. I w ten sposób się rozwija, dzięki czemu potrafi z kolei lepiej programować komputer. Ma miejsce sprzężenie zwrotne.

Co się stanie, gdy komputer dogoni człowieka?

Człowiek według mnie będzie zawsze dominował nad maszyną w wielu obszarach swej działalności, będzie niejako uciekał do przodu przed komputerem. Po drugie nasza wiedza o inteligencji i sposobie funkcjonowania naszego umysłu jest na razie tak niska, że wszelkie próby naśladownictwa tego umysłu przez komputer są skazane na niepowodzenie, przynajmniej przez wiele jeszcze lat, a może zawsze.

Prace nad sztuczną inteligencją jednak trwają.

Ma ona wspomagać człowieka w jego pracy kreatywnej. Dla przykładu: człowiek na razie góruje nad komputerem także dlatego, że uczy się z doświadczeń. Gdy raz rozwiąże jakiś problem, następnym razem nie przystępuje do pracy od początku, ale od miejsca, do którego doszedł wcześniej. A „głupi” komputer liczy od początku, powtarzając to, co już kiedyś zrobił. A więc chodzi o to, by oprogramowanie uczyło się na podstawie przeszłych doświadczeń. To jest możliwe, są już programy, które potrafią się samodoskonalić.

Czy staną się poważną konkurencją dla człowieka?

Nie tak szybko. Na razie nie potrafią wielu rzeczy, choćby kontekstowego interpretowania informacji niepewnych. Kiedy ja panu powiem, że dzisiaj mamy brzydką pogodę, to my obaj – wychowani w tym samym kręgu kulturowym – świetnie się rozumiemy, mimo że nie wypowiedziałem żadnego konkretu. Pan dokładnie wie, co ja mam na myśli, bo pan wie, że jest lato i pan wie, co to jest brzydka pogoda w Warszawie w środku sierpnia. Ale w takim języku nie można się porozumieć z komputerem, bo on w zetknięciu z taką informacją „zgłupieje”. My mamy fenomenalną zdolność porozumiewania się w sposób nieprecyzyjny. A komputer wymaga absolutnej precyzji, inaczej odmawia współpracy. Dlatego chodzi o to, żeby go nauczyć przetwarzania tzw. pojęć rozmytych. Żeby potrafił przetwarzać informacje nie tylko ilościowo, ale i jakościowo. I to też jest możliwe i zbliża inteligencję komputera do inteligencji ludzkiej. Ale wciąż będzie mu do człowieka daleko. Choćby z tego powodu, że my, ludzie, mamy niesamowity, hierarchiczny układ pamięci. Pamiętamy np. setki twarzy, na dodatek widząc jakąś twarz, w jednej chwili wydobywamy z pamięci mnóstwo szczegółów wiążących się z osobą, do której twarz należy. Te wspomnienia są poukładane hierarchicznie i uaktywniają się pod wpływem wydarzeń. Dobrze byłoby, żeby i komputer dysponował takim systemem pamięci. Aby każda informacja nie była dla niego tak samo ważna i żeby potrafił je selekcjonować.

Niektórzy jednak obawiają się, że maszyna w końcu posiądzie umiejętności, którymi dysponuje mózg człowieka.

Kiedy o tym wszystkim mówię, wielu ludzi twierdzi, że to jest podejście niehumanistyczne, że chciałbym z maszyny zrobić człowieka. Zawsze wtedy odpowiadam, że przecież nie ma lepszej możliwości złożenia hołdu wielkości ludzkiej natury, niż powiedzenie, że skuteczny komputer musi wzorować się na niej.

I nie boi się pan, że kiedyś komputer okaże się lepszy?

Są dziesiątki rzeczy, których boję się dużo bardziej.

prof. Michał Kleiber (59 l.) – minister nauki i informatyzacji, specjalista z zakresu mechaniki i informatyki. Jest absolwentem Wydziału Inżynierii Lądowej Politechniki Warszawskiej oraz Wydziału Matematyki, Mechaniki i Informatyki Uniwersytetu Warszawskiego. Od 1972 r. związany z Instytutem Podstawowych Problemów Techniki PAN, w 1995 r. został jego dyrektorem. Od października 2001 r. minister nauki i przewodniczący Komitetu Badań Naukowych (do lutego 2005). Członek Europejskiej Rady Badań.

 

Więcej na ten temat
Reklama

Czytaj także

null
Historia

Dlaczego tak późno? Marian Turski w 80. rocznicę wybuchu powstania w getcie warszawskim

Powstanie w warszawskim getcie wybuchło dopiero wtedy, kiedy większość blisko półmilionowego żydowskiego miasta już nie żyła, została zgładzona.

Marian Turski
19.04.2023
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną