Kiedy komputery zastąpią ludzi?

Inwazja algorytmów
Rozmowa z laureatem Nagrody Naukowej POLITYKI Piotrem Bilskim o sztucznej inteligencji, fantastyce i grach komputerowych
Dr inż. Piotr Bilski - laureat tegorocznej Nagrody Naukowej POLITYKI w kategorii Nauki Techniczne.
Tadeusz Późniak/Polityka

Dr inż. Piotr Bilski - laureat tegorocznej Nagrody Naukowej POLITYKI w kategorii Nauki Techniczne.

Edwin Bendyk: – Prorocy sztucznej inteligencji wieszczą, że już niebawem nadejdzie czas „duchowych maszyn” o zdolnościach umysłowych przewyższających ludzkie. Lubię swój komputer, ale trudno mi się w nim dopatrzyć choćby cienia ludzkiej inteligencji.
Piotr Bilski: – Zależy, o czym mówimy. Te radykalne wizje dotyczą pojęcia silnej sztucznej inteligencji, czyli projektów, które rzeczywiście polegają na próbach skonstruowania systemów obdarzonych zdolnościami intelektualnymi analogicznymi do ludzkich. Zgodnie z prognozami takich wizjonerów jak Amerykanin Ray Kurzweil, przełom miałby nastąpić już niebawem. Swoje przekonanie opiera on na obserwacji, że miniaturyzacja układów elektronicznych i ich moc obliczeniowa nieustannie przyspiesza, co nieuchronnie prowadzić musi do wielkiego skoku jakościowego. Kurzweil nazywa go osobliwością – momentem, w którym obowiązująca wcześniej logika rozwoju zostaje zerwana i mamy do czynienia z nową rzeczywistością, pojawieniem się nowej formy inteligencji o potencjale większym od ludzkiego.

Bardzo cenię Kurzweila, to genialny wynalazca, uhonorowany wszystkimi chyba amerykańskimi nagrodami i medalami, obawiam się jednak, że wieszczenie osobliwości stało się jego sposobem na życie.

Osobliwości więc nie będzie, nie zobaczymy „duchowych maszyn”?
Tego nie powiedziałem. Jestem przekonany, że doczekamy się systemów obdarzonych zdolnościami intelektualnymi przewyższającymi ludzkie, choć nie tak szybko, jak chciałby Kurzweil. Nie wiemy przy tym zupełnie, jak będą one funkcjonować, dobrą ilustracją problemu jest komandor Data z serialu science fiction „Star Trek”. Android Data, z mózgiem obdarzonym sztuczną inteligencją, pragnie być człowiekiem, co przecież nie oznacza tylko zdolności umysłowych, lecz także uczucia, wrażliwość moralną, poczucie humoru. Maszyny sprawniejsze od nas intelektualnie mogą być po prostu niebezpieczne, zwłaszcza gdy stwierdzą, że nie potrzebują ludzi do dalszego funkcjonowania. Zanim jednak dojdzie do tych zagrożeń, uczeni i inżynierowie pokonać muszą kilka zasadniczych problemów.

Bariera miniaturyzacji?
Tak, rzeczywiście od kilkudziesięciu lat wydajność układów elektronicznych jest coraz większa. Wiemy jednak, że istnieją fizyczne granice dla miniaturyzacji, która jest podstawą tego postępu. Już w tej chwili inżynierowie stosują sztuczki i obchodzą tę barierę, projektując np. mikroprocesory wielordzeniowe, czyli uzyskują efekt wzrostu szybkości przez połączenie de facto kilku procesorów w jednym układzie. Optymiści przekonują, że te fizyczne bariery wynikają z obecnego przywiązania do krzemu, rozwiązaniem problemu będzie zmiana materiału – dlatego z tak wielką nadzieją mówi się o grafenie, gorącym temacie elektroniki ostatniego czasu.

Bariera miniaturyzacji to jednak nie wszystko, istnieją ograniczenia natury podstawowej, matematycznej.

Ale jakie? Przecież postęp, wynikający z przyspieszającego wzrostu szybkości komputerów, polega na tym, że to, czego nie dało się policzyć 10 lat temu, dziś jest w zasięgu zwykłego laptopa.
Niezupełnie. Istnieją problemy, których złożoność obliczeniowa powoduje jeszcze szybszy przyrost czasu potrzebnego do ich wykonania. Do takich należy klasyczny problem komiwojażera. Wyobraźmy sobie handlowca, który musi objechać kilkanaście miast i wrócić do miejsca startu. Jak optymalnie zaplanować podróż, by trwała najkrócej? Gdy komiwojażer musi obsłużyć pięć miast, należy przeanalizować 120 możliwych kombinacji tras. Jeśli dołożymy szóste miasto, liczba kombinacji rośnie do 720. Kolejne miasto to już 5040. Tą metodą bardzo szybko dochodzimy do progu wydajności najszybszych superkomputerów.

Jesteśmy bez szans?
Niekoniecznie. Wielką nadzieją są nowe rodzaje komputerów, np. komputery kwantowe, rządzące się zupełnie inną logiką niż obecne komputery krzemowe. Problem w tym, że nie wiemy, czy kiedykolwiek wyjdą ze stanu eksperymentów laboratoryjnych. Jeśliby się udało dokonać przełomu i zbudować prawdziwe, działające komputery kwantowe, wówczas znaleźlibyśmy się w zupełnie nowej rzeczywistości. Złożoność obliczeniowa jest np. podstawą współczesnej kryptografii, czyli systemów szyfrowania chroniących m.in. transakcje w Internecie. Istniejących szyfrów nie sposób złamać, bo wymagałoby to zbyt wiele czasu pracy najszybszych nawet komputerów. Komputery kwantowe nie miałyby tego problemu.

Ciągle tryb warunkowy… Jeśli więc chodzi o silną sztuczną inteligencję, nadal poruszamy się po świecie science fiction. Czym w takim razie pan się zajmuje?
Projektowaniem i wykorzystaniem algorytmów sztucznej inteligencji do klasyfikacji obiektów. Wyobraźmy sobie silnik. Zazwyczaj, jeśli się zepsuje, trzeba go rozebrać, żeby znaleźć źródło usterki. Metoda skuteczna, tylko kosztowna, zwłaszcza w systemach, gdzie istotna jest ciągłość pracy, np. w fabrykach. Czy jednak w ogóle możliwe jest diagnozowanie pracującego silnika bez konieczności wiwisekcji? Można to sobie wyobrazić – pracująca maszyna wytwarza różne sygnały, które da się na bieżąco analizować. Układają się w jakiś wzór, inny dla sprawnie działającego obiektu, inny, gdy pojawia się usterka.

Cała sztuka polega na tym, żeby zaprojektować taki algorytm, czyli sposób postępowania, który umożliwi komputerowi automatyczną analizę i podejmowanie decyzji. Sytuacja jest analogiczna do diagnostyki medycznej: lekarz również nie otwiera każdego pacjenta, żeby stwierdzić, na co choruje, tylko tworzy diagnozę na podstawie jego obserwacji i analizy badań fizjologicznych. W przypadku obiektów mechanicznych sytuacja jest o tyle bardziej złożona, że nie można z nimi nawiązać bezpośredniego kontaktu, diagnoza musi być wykonana wyłącznie na podstawie analizy sygnałów.

Gdzie się stosuje takie systemy?
W fabrykach, elektrowniach jądrowych, statkach kosmicznych, także w diagnostyce medycznej, a nawet w analizach ekonomicznych. Praktycznie wszędzie, gdzie komputer z definicji góruje nad człowiekiem.

Na czym ta wyższość polega? Przecież ciągle komputery nie zastąpiły lekarzy.
To prawda. Człowiek jest jednak bezradny, gdy trzeba przeanalizować bardzo dużo cech jakiegoś systemu. Sterowanie elektrownią lub statkiem kosmicznym wymaga ciągłej analizy setek, a nawet tysięcy parametrów. Nikt nie jest w stanie przetworzyć w realnym czasie takiej ilości danych. Dla komputerów to żadne wyzwanie, pod warunkiem oczywiście, że liczba danych rośnie liniowo, a nie w takim tempie, jak w problemie komiwojażera.

Wizja komputerów, które zastępując ludzi w konkretnych sytuacjach nie stanowią zagrożenia, jak w projektach silnej sztucznej inteligencji, jest pociągająca. Na czym polegają główne wyzwania w pańskiej pracy badawczej?
Podczas analizowania obiektów działających w rzeczywistości mamy do czynienia ze zjawiskiem szumów addytywnych – sygnałów, które utrudniają klasyfikację. Ponadto zdarza się, że podobne zestawy sygnałów mogą oznaczać różne zjawiska, np. różne uszkodzenia. Dobry inteligentny algorytm powinien się uczyć, to znaczy radzić sobie coraz skuteczniej w miarę przyrastania ilości przeanalizowanych danych. Należy jednak także pamiętać, że w wielu sytuacjach, np. systemach przemysłowych, nie możemy stosować takich samych komputerów jak w laboratorium. Ze względu choćby na zasilanie wiele układów sterowania jest odchudzonych maksymalnie, by zużywać jak najmniej energii. Oznacza to także konieczność bardzo starannego przygotowania algorytmu, by jak najefektywniej wykorzystywał możliwości systemu.

Aktualności, komentarze

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną