Kiedy maszyny pomyślą?

Ciężkie roboty
Rozmowa z prof. Sethem Tellerem z MIT o tym, dlaczego maszyny muszą nauczyć się patrzeć na świat jak ludzie
Kadr z serialu animowanego 'Wojny klonów'. Czy tak będą wyglądały roboty przyszłości?
EAST NEWS

Kadr z serialu animowanego "Wojny klonów". Czy tak będą wyglądały roboty przyszłości?

Marcin Rotkiewicz: – Już za pięć lat jedną trzecią naziemnych pojazdów armii amerykańskiej mają stanowić sterowane przez komputer samochody-roboty. Czy to możliwe?

Seth Teller: – Zdecydowanie nie. Choć właśnie takie zadanie Kongres USA postawił dziewięć lat temu Departamentowi Obrony.

Jednak DARPA, czyli wojskowa Agencja Zaawansowanych Obronnych Projektów Badawczych, w ostatnich latach zorganizowała trzy wyścigi samochodów-robotów. Może właśnie na nie liczy amerykańska armia?

Dopiero trzeci konkurs DARPA – Urban Challenge, w 2007 r., to było coś naprawdę ciekawego. Samochody-roboty miały przejechać trasę po mieście – posłużyła za nie baza US Army w Kalifornii. Były tam domy, ulice, na nich prawdziwy ruch miejski – niemal jak w realnym świecie. Zadanie, które postawiła DARPA, najbardziej pasowało do tego, czym zajmujemy się w naszym laboratorium w MIT.

Czyli?

Staramy się stworzyć maszyny „świadome” otaczającego je świata. Bez tego bowiem nie będą potrafiły rozwiązywać najbardziej podstawowych problemów – dostrzec, gdzie są przeszkody, czy jest dość miejsca, by wykonać manewr. Jeśli w pobliżu nas są jakieś obiekty – książki, szklanki, krzesło – to człowiek rozpoznaje je bez zastanowienia. Roboty, przynajmniej na razie, nie mają takiej zdolności. A jest ona niezbędna nie tylko do sprawnego poruszania się w świecie. Jeśli roboty mają być częścią naszego otoczenia, muszą zostać zaakceptowane przez ludzi. Stanie się tak jedynie, gdy będą podobnie do nas patrzeć na świat i interpretować otaczającą rzeczywistość.

Żeby to osiągnąć, trzeba je m.in. wyposażyć w zmysły podobne do ludzkich.

Największym problemem w robotyce nie jest tworzenie takich czujników, ale synteza napływających z nich danych. Mózg tworzy spójną mentalną reprezentację świata – przetwarza informacje, rozpoznając obiekty w otoczeniu, ustalając, gdzie kończy się jeden, a zaczyna inny, jakie są ich właściwości. Dostosowujemy zachowanie do różnie zbudowanych przedmiotów – nie tylko zatem rejestrujemy je zmysłami, ale przewidujemy, co się stanie, gdy wejdziemy z nimi w kontakt, oraz jak mogą zachować się za chwilę (np. inne samochody na drodze).
Drugim wielkim problemem jest planowanie. Np. rodzi się pomysł: posprzątam biurko. Niemal natychmiast powstaje plan działania. Tymczasem nie mamy algorytmów (czyli przepisów) układania planów dla robotów. To frustrujące, że potrafimy świetnie planować, ale kompletnie nie wiemy, jak to robimy.

Okna pańskiego laboratorium wychodzą na budynek McGovern Institute for Brain Research, zajmujący się badaniami nad mózgiem. Może tam znajduje się odpowiedź?

Myśli pan, że do niego nie zaglądamy? Cały czas spotykamy się z naukowcami z naprzeciwka, bo niewątpliwie biologia i neuronauka są dla nas inspirujące. Tyle że koleżanki i koledzy z McGovern Institute również nie mają pojęcia, jak mózgi radzą sobie z rozwiązywaniem zadań.

Zatem na rychłe powstanie sztucznej inteligencji nie ma co liczyć?

Szczerze? Nie używam pojęcia sztuczna inteligencja, ponieważ coś takiego nie istnieje.

To dość zaskakująca deklaracja w ustach profesora Laboratorium Informatyki i Sztucznej Inteligencji.

Istnieje coś takiego jak inteligencja biologiczna – system o niesamowitych zdolnościach, na razie skutecznie skrywający przed nami tajemnice swojego działania. Powtórzę: jego dwiema podstawowymi zdolnościami są tworzenie modeli otaczającego świata oraz uczenie się i planowanie. Roboty potrafią to w znikomym stopniu – bardzo daleko im nawet do poziomu dwuletniego dziecka. Zatem na razie sztuczna inteligencja, czymkolwiek jest, nie jest prawdziwą inteligencją.

Wróćmy do wyścigu Urban Challenge i waszego samochodu-robota.

Zdecydowaliśmy się wziąć w nim udział, ponieważ taki pojazd musiał być choć trochę „świadomy” swojego otoczenia i natychmiast reagować na jego zmiany – m.in. trzymać się prawej strony jedni, a zatem rozpoznawać, gdzie się ona kończy i gdzie znajduje się linia rozdzielająca pasy ruchu. Musiał też wiedzieć, gdzie są inne samochody, zatrzymać się przed skrzyżowaniem, przepuścić pojazdy.
Nafaszerowaliśmy naszego Land Rovera czujnikami – miał dziesiątki laserowych dalmierzy, radar, no i oczywiście kamery. Za przednimi siedzeniami znajdowało się 40 komputerów, analizujących napływające dane i dwie bardzo szybkie magistrale do ich przesyłania. Dlatego musieliśmy zamontować dodatkową klimatyzację, chłodzącą elektronikę oraz generator prądu. Oczywiście sam sprzęt niewiele da – trzeba było napisać algorytmy interpretujące dane. Nad projektem pracowało 30 ludzi, wydaliśmy 3 mln dol.

Do wyścigu zgłosiło się 89 zespołów. Zaledwie sześć go ukończyło, wy na czwartym miejscu. Wygrał zespół z Carnegie Mellon University. W czym ich auto okazało się lepsze?

Wszystkie samochody-roboty miały podobne oprogramowanie i systemy czujników. Oczywiście, dawało się dostrzec pewne różnice – np. w rozmieszczeniu laserów czy w algorytmach komputerowych. Ważną rolę odegrała zatem taktyka. DARPA na dzień przed wyścigiem udostępniła dokładną mapę terenu i wiele zespołów przez całą noc nanosiło w komputerach trasę punkt po punkcie. My postawiliśmy na większą autonomię naszego robota. To zresztą moje największe zastrzeżenie do konkursu i nawet napisałem w tej sprawie list do DARPA: jeśli chcecie mieć naprawdę autonomiczne roboty, dajcie zespołom mapę pięć minut przed wyścigiem i zabrońcie używania GPS.

Gdyby wprowadzono takie zasady, wasz robot by wygrał?

Niekoniecznie, raczej żaden zespół nie ukończyłby wyścigu. I byłoby to z pożytkiem dla konstruktorów robotów – taka porażka to silny bodziec do szukania lepszych rozwiązań. Problemy bowiem, które pojawiły się przed i w trakcie wyścigu, to świetny materiał na co najmniej kilka rozpraw doktorskich. Np. jeden z moich studentów zajął się kwestią rozpoznawania przez komputer drogi – głównie linii oddzielającej pasy ruchu na jezdni czy chodnika. Jeśli wystąpią trudne warunki pogodowe – deszcz, odbicia słońca, śnieg, cienie – robi się naprawdę ogromny kłopot dla autora algorytmu. Podobnych zagadnień jest zresztą wiele. Choćby rozpoznawanie znaków drogowych – jak na razie nieosiągalne dla maszyn.

Czytaj także

Co nowego w nauce?

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną