Osoby czytające wydania polityki

Wiarygodność w czasach niepewności

Wypróbuj za 11,90 zł!

Subskrybuj
Nauka

Inwazja algorytmów

Kiedy komputery zastąpią ludzi?

Dr inż. Piotr Bilski - laureat tegorocznej Nagrody Naukowej POLITYKI w kategorii Nauki Techniczne. Dr inż. Piotr Bilski - laureat tegorocznej Nagrody Naukowej POLITYKI w kategorii Nauki Techniczne. Tadeusz Późniak / Polityka
Rozmowa z laureatem Nagrody Naukowej POLITYKI Piotrem Bilskim o sztucznej inteligencji, fantastyce i grach komputerowych

Edwin Bendyk: – Prorocy sztucznej inteligencji wieszczą, że już niebawem nadejdzie czas „duchowych maszyn” o zdolnościach umysłowych przewyższających ludzkie. Lubię swój komputer, ale trudno mi się w nim dopatrzyć choćby cienia ludzkiej inteligencji.
Piotr Bilski: – Zależy, o czym mówimy. Te radykalne wizje dotyczą pojęcia silnej sztucznej inteligencji, czyli projektów, które rzeczywiście polegają na próbach skonstruowania systemów obdarzonych zdolnościami intelektualnymi analogicznymi do ludzkich. Zgodnie z prognozami takich wizjonerów jak Amerykanin Ray Kurzweil, przełom miałby nastąpić już niebawem. Swoje przekonanie opiera on na obserwacji, że miniaturyzacja układów elektronicznych i ich moc obliczeniowa nieustannie przyspiesza, co nieuchronnie prowadzić musi do wielkiego skoku jakościowego. Kurzweil nazywa go osobliwością – momentem, w którym obowiązująca wcześniej logika rozwoju zostaje zerwana i mamy do czynienia z nową rzeczywistością, pojawieniem się nowej formy inteligencji o potencjale większym od ludzkiego.

Bardzo cenię Kurzweila, to genialny wynalazca, uhonorowany wszystkimi chyba amerykańskimi nagrodami i medalami, obawiam się jednak, że wieszczenie osobliwości stało się jego sposobem na życie.

Osobliwości więc nie będzie, nie zobaczymy „duchowych maszyn”?
Tego nie powiedziałem. Jestem przekonany, że doczekamy się systemów obdarzonych zdolnościami intelektualnymi przewyższającymi ludzkie, choć nie tak szybko, jak chciałby Kurzweil. Nie wiemy przy tym zupełnie, jak będą one funkcjonować, dobrą ilustracją problemu jest komandor Data z serialu science fiction „Star Trek”. Android Data, z mózgiem obdarzonym sztuczną inteligencją, pragnie być człowiekiem, co przecież nie oznacza tylko zdolności umysłowych, lecz także uczucia, wrażliwość moralną, poczucie humoru. Maszyny sprawniejsze od nas intelektualnie mogą być po prostu niebezpieczne, zwłaszcza gdy stwierdzą, że nie potrzebują ludzi do dalszego funkcjonowania. Zanim jednak dojdzie do tych zagrożeń, uczeni i inżynierowie pokonać muszą kilka zasadniczych problemów.

Bariera miniaturyzacji?
Tak, rzeczywiście od kilkudziesięciu lat wydajność układów elektronicznych jest coraz większa. Wiemy jednak, że istnieją fizyczne granice dla miniaturyzacji, która jest podstawą tego postępu. Już w tej chwili inżynierowie stosują sztuczki i obchodzą tę barierę, projektując np. mikroprocesory wielordzeniowe, czyli uzyskują efekt wzrostu szybkości przez połączenie de facto kilku procesorów w jednym układzie. Optymiści przekonują, że te fizyczne bariery wynikają z obecnego przywiązania do krzemu, rozwiązaniem problemu będzie zmiana materiału – dlatego z tak wielką nadzieją mówi się o grafenie, gorącym temacie elektroniki ostatniego czasu.

Bariera miniaturyzacji to jednak nie wszystko, istnieją ograniczenia natury podstawowej, matematycznej.

Ale jakie? Przecież postęp, wynikający z przyspieszającego wzrostu szybkości komputerów, polega na tym, że to, czego nie dało się policzyć 10 lat temu, dziś jest w zasięgu zwykłego laptopa.
Niezupełnie. Istnieją problemy, których złożoność obliczeniowa powoduje jeszcze szybszy przyrost czasu potrzebnego do ich wykonania. Do takich należy klasyczny problem komiwojażera. Wyobraźmy sobie handlowca, który musi objechać kilkanaście miast i wrócić do miejsca startu. Jak optymalnie zaplanować podróż, by trwała najkrócej? Gdy komiwojażer musi obsłużyć pięć miast, należy przeanalizować 120 możliwych kombinacji tras. Jeśli dołożymy szóste miasto, liczba kombinacji rośnie do 720. Kolejne miasto to już 5040. Tą metodą bardzo szybko dochodzimy do progu wydajności najszybszych superkomputerów.

Jesteśmy bez szans?
Niekoniecznie. Wielką nadzieją są nowe rodzaje komputerów, np. komputery kwantowe, rządzące się zupełnie inną logiką niż obecne komputery krzemowe. Problem w tym, że nie wiemy, czy kiedykolwiek wyjdą ze stanu eksperymentów laboratoryjnych. Jeśliby się udało dokonać przełomu i zbudować prawdziwe, działające komputery kwantowe, wówczas znaleźlibyśmy się w zupełnie nowej rzeczywistości. Złożoność obliczeniowa jest np. podstawą współczesnej kryptografii, czyli systemów szyfrowania chroniących m.in. transakcje w Internecie. Istniejących szyfrów nie sposób złamać, bo wymagałoby to zbyt wiele czasu pracy najszybszych nawet komputerów. Komputery kwantowe nie miałyby tego problemu.

Ciągle tryb warunkowy… Jeśli więc chodzi o silną sztuczną inteligencję, nadal poruszamy się po świecie science fiction. Czym w takim razie pan się zajmuje?
Projektowaniem i wykorzystaniem algorytmów sztucznej inteligencji do klasyfikacji obiektów. Wyobraźmy sobie silnik. Zazwyczaj, jeśli się zepsuje, trzeba go rozebrać, żeby znaleźć źródło usterki. Metoda skuteczna, tylko kosztowna, zwłaszcza w systemach, gdzie istotna jest ciągłość pracy, np. w fabrykach. Czy jednak w ogóle możliwe jest diagnozowanie pracującego silnika bez konieczności wiwisekcji? Można to sobie wyobrazić – pracująca maszyna wytwarza różne sygnały, które da się na bieżąco analizować. Układają się w jakiś wzór, inny dla sprawnie działającego obiektu, inny, gdy pojawia się usterka.

Cała sztuka polega na tym, żeby zaprojektować taki algorytm, czyli sposób postępowania, który umożliwi komputerowi automatyczną analizę i podejmowanie decyzji. Sytuacja jest analogiczna do diagnostyki medycznej: lekarz również nie otwiera każdego pacjenta, żeby stwierdzić, na co choruje, tylko tworzy diagnozę na podstawie jego obserwacji i analizy badań fizjologicznych. W przypadku obiektów mechanicznych sytuacja jest o tyle bardziej złożona, że nie można z nimi nawiązać bezpośredniego kontaktu, diagnoza musi być wykonana wyłącznie na podstawie analizy sygnałów.

Gdzie się stosuje takie systemy?
W fabrykach, elektrowniach jądrowych, statkach kosmicznych, także w diagnostyce medycznej, a nawet w analizach ekonomicznych. Praktycznie wszędzie, gdzie komputer z definicji góruje nad człowiekiem.

Na czym ta wyższość polega? Przecież ciągle komputery nie zastąpiły lekarzy.
To prawda. Człowiek jest jednak bezradny, gdy trzeba przeanalizować bardzo dużo cech jakiegoś systemu. Sterowanie elektrownią lub statkiem kosmicznym wymaga ciągłej analizy setek, a nawet tysięcy parametrów. Nikt nie jest w stanie przetworzyć w realnym czasie takiej ilości danych. Dla komputerów to żadne wyzwanie, pod warunkiem oczywiście, że liczba danych rośnie liniowo, a nie w takim tempie, jak w problemie komiwojażera.

Wizja komputerów, które zastępując ludzi w konkretnych sytuacjach nie stanowią zagrożenia, jak w projektach silnej sztucznej inteligencji, jest pociągająca. Na czym polegają główne wyzwania w pańskiej pracy badawczej?
Podczas analizowania obiektów działających w rzeczywistości mamy do czynienia ze zjawiskiem szumów addytywnych – sygnałów, które utrudniają klasyfikację. Ponadto zdarza się, że podobne zestawy sygnałów mogą oznaczać różne zjawiska, np. różne uszkodzenia. Dobry inteligentny algorytm powinien się uczyć, to znaczy radzić sobie coraz skuteczniej w miarę przyrastania ilości przeanalizowanych danych. Należy jednak także pamiętać, że w wielu sytuacjach, np. systemach przemysłowych, nie możemy stosować takich samych komputerów jak w laboratorium. Ze względu choćby na zasilanie wiele układów sterowania jest odchudzonych maksymalnie, by zużywać jak najmniej energii. Oznacza to także konieczność bardzo starannego przygotowania algorytmu, by jak najefektywniej wykorzystywał możliwości systemu.

Przemysł, energetyka, kosmos, medycyna. Gdzie jeszcze przydają się algorytmy sztucznej inteligencji?
Praktycznie wszędzie. Na przykład w geotechnicznej analizie gruntów. To niezbędny etap, poprzedzający projektowanie fundamentów pod budowle. Tradycyjna metoda polega na robieniu odwiertów, a następnie laboratoryjnej analizie uzyskanych próbek. Kosztuje to wiele czasu i pieniędzy. Wiercenia można zastąpić sondami, które mierzą różne parametry gruntu, np. przewodność elektryczną, i na ich podstawie oraz tzw. nomogramów, czyli wykresów wspomagających identyfikację struktury gruntów, dokonywać odpowiedniej kategoryzacji.

Nomogramy są jednak dokładne tylko na takich terenach, dla których były tworzone. Jest tak m.in. dlatego, że grunt pamięta swoją historię. Dla przykładu, przez Polskę przeszedł kiedyś lodowiec, co powoduje, że nomogramy z innych krajów nie nadają się do wykorzystania, a własnych się dotąd nie dorobiliśmy. Czy jesteśmy skazani na kosztowne wiercenia? Myślę, że odpowiedzią będą algorytmy sztucznej inteligencji. To jeden z projektów, nad którym pracuję z geotechnikami w SGGW.

Kiedy mówimy o olbrzymich ilościach danych, od razu na myśl przychodzi Internet.
Oczywiście, wyszukiwanie informacji w Internecie to coraz większe wyzwanie, wie o tym każdy, kto korzysta z dowolnej wyszukiwarki. W sensie technicznym mamy do czynienia z tym samym problemem, jak we wcześniejszych zagadnieniach – chodzi o klasyfikację znajdujących się w sieci dokumentów. Algorytmy do tego służące są cały czas ulepszane, nie zadowala nas już wyszukiwanie tylko według słów kluczowych. Dlatego trwają prace nad wyszukiwaniem semantycznym, kiedy analizowany jest także sens i kontekst ukryty w zapytaniu, umożliwiający zawężenie kategorii dokumentów odpowiadających poszukiwanym zwrotom.

Gdyby rozszerzył pan swoją naukową aktywność na Internet, to jaki problem trafiłby na pański warsztat?
Większość sklepów i serwisów internetowych stosuje dziś systemy rekomendacji. Nieustannie dostajemy podpowiedzi, np. gdy kupimy jakąś płytę, dostajemy informację o płytach nabytych przez osoby, które kupiły to samo co my. Sugestia wypływa z przekonania, że jeśli interesuję się muzyką heavymetalową i kupiłem album Metalliki, to mam najprawdopodobniej podobne gusta jak inni melomani, którzy kupili ten sam album. W związku z tym powinny mi się podobać płyty, które również im się podobają. Nic dalszego od prawdy, kwestia gustu jest bardziej złożona. Ile razy zdarza się, że z całego albumu podoba się tylko jeden, dwa utwory, całej reszty nie można słuchać?

Pytanie więc, czy jesteśmy w stanie wyodrębnić kluczowe cechy utworu muzycznego, by na tej podstawie utworzyć precyzyjną klasyfikację nie za pomocą powierzchownych analogii, lecz wewnętrznych cech obiektów? To bardzo trudne, lecz potencjalne znaczenie takich rozwiązań trudno przecenić. Być może zajmę się tym problemem, jak już będę profesorem i będę miał większą swobodę wyboru kierunków badań. Na razie nie narzekam na brak ciekawych i konkretnych zadań.

Na czym polegają strategiczne wyzwania pańskiej dziedziny?
Nieustającym wyzwaniem jest niepewność pomiarów wynikająca z tego, że analizowane systemy działają w realnej rzeczywistości, w warunkach szumu, który utrudnia interpretację sygnałów. By radzić sobie z tymi problemami, korzystamy z coraz doskonalszych metod matematycznych, jak logika rozmyta czy teoria zbiorów przybliżonych. Inną cechą rzeczywistości, w jakiej działają nasze systemy, jest jej ciągła zmienność, co powoduje, że inteligentne algorytmy muszą mieć zdolność ciągłego uczenia się i nadążania za zmianami otoczenia.

Zdolność rozpoznawania zmieniającego kontekstu umożliwia m.in. radzenie sobie ze wspomnianym supertrudnym problemem komiwojażera. Wiemy przecież, że w prawdziwym życiu handlowiec nie jeździ między jednakowymi miastami – jedno jest ważniejsze, inne mniej istotne. Umiejętność określenia wagi – kosztu podróży między poszczególnymi lokalizacjami znakomicie ułatwia znalezienie odpowiedniego rozwiązania. Problem w tym, że te wagi i ich znaczenie zazwyczaj szybko się zmieniają, a inteligentny algorytm musi za tym nadążać. W końcu nieustannie ważnym wyzwaniem jest zastosowanie algorytmów w rzeczywistych urządzeniach.

Pracuje pan na Politechnice Warszawskiej i w Szkole Głównej Gospodarstwa Wiejskiego. Jak pan dzieli obowiązki?
Na Politechnice, na Wydziale Elektroniki i Technik Informacyjnych, w Instytucie Radioelektroniki obroniłem doktorat i robię habilitację – to miejsce, gdzie bardziej zajmuję się rozwijaniem metod. W SGGW, na Wydziale Zastosowań Informatyki i Matematyki, w Katedrze Zastosowań Informatyki więcej uwagi poświęcam zastosowaniom nowych rozwiązań w naukach przyrodniczych.

Już to wystarczyłoby, żeby zająć cały czas, zwłaszcza gdy uwzględni się liczbę pańskich publikacji naukowych, wiele z nich ogłoszonych w dobrych zagranicznych czasopismach. Tymczasem wyczytałem, że obok pracy naukowej poświęca pan prawie 700 godzin rocznie na zajęcia ze studentami. To się nie sumuje.
Uwielbiam uczyć, nie wyobrażam sobie pracy akademickiej bez dydaktyki. A żeby rachunek czasu się zgodził, pracuję od ósmej do dwudziestej, często także do późnych godzin nocnych. Rzeczywiście, publikuję sporo, ok. 10 artykułów naukowych rocznie, chyba dlatego, że łatwo przychodzi mi pisanie. Przez wiele lat byłem redaktorem miesięcznika „Świat gier komputerowych”, pisałem też opowiadania science fiction, kilka nawet trafiło do druku.

Kiedy nastąpiło przejście na tę lepszą, fantastyczno-naukową stronę mocy?
Gdy miałem osiem lat, wujek zaprowadził mnie do kina na trzecią część „Gwiezdnych wojen”, czyli na „Powrót Jedi”. To wystarczyło, by utonąć w science fiction. Wówczas królował jeszcze miesięcznik „Fantastyka”, było zatem co czytać. Dziś trudniej znaleźć ciekawe pozycje, do dominującego fantasy nie mam serca, przez „Władcę pierścieni” Tolkiena przebrnąłem z trudem. Coraz częściej zacząłem się natomiast przekonywać, że trudniej o fantastyczną literaturę niż dobre książki takich sprawdzonych autorów jak Cortazar. Chętnie natomiast ciągle oglądam filmy science fiction.

A zainteresowanie komputerami i informatyką?
Komputery zawsze mnie przerażały. Na moje 15 urodziny rodzice kupili komputer do domu, stosunkowo prostą Amigę 500+, choć wówczas był to olbrzymi wydatek. Stwierdziłem, że inwestycja nie może się zmarnować, nie mogę sprawić im zawodu i na poważnie zacząłem interesować się elektroniką i informatyką. Przy okazji odkryłem gry komputerowe, z kultowym Wing Commanderem na czele. Czy mogło być coś wspanialszego niż gra, w której w postać głównego bohatera wcielał się Mark Hamill, odtwórca Luka Skywalkera w „Powrocie Jedi”?

rozmawiał Edwin Bendyk

Dr inż. Piotr Bilski studiował na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w Instytucie Radioelektroniki obronił z wyróżnieniem pracę magisterską, a następnie doktorat. Zajmuje się projektowaniem i zastosowaniem algorytmów sztucznej inteligencji do klasyfikacji obiektów, co znajduje liczne zastosowania, jak np. diagnostyka maszyn i analiza geotechniczna gruntów. Pracę na politechnice, gdzie przygotowuje habilitację, łączy z działalnością naukowo-dydaktyczną na Wydziale Zastosowań Informatyki i Matematyki Szkoły Głównej Gospodarstwa Wiejskiego, gdzie pełni funkcję prodziekana ds. dydaktyki. Tytan pracy, w ciągu roku ma prawie 700 godzin zajęć dydaktycznych, autor ok. 30 publikacji naukowych i ponad 30 wystąpień konferencyjnych.

Polityka 48.2011 (2835) z dnia 23.11.2011; Nauka; s. 67
Oryginalny tytuł tekstu: "Inwazja algorytmów"
Reklama

Czytaj także

null
Historia

Dlaczego tak późno? Marian Turski w 80. rocznicę wybuchu powstania w getcie warszawskim

Powstanie w warszawskim getcie wybuchło dopiero wtedy, kiedy większość blisko półmilionowego żydowskiego miasta już nie żyła, została zgładzona.

Marian Turski
19.04.2023
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną