Nauka

Ciężkie roboty

Kiedy maszyny pomyślą?

Kadr z serialu animowanego Kadr z serialu animowanego "Wojny klonów". Czy tak będą wyglądały roboty przyszłości? EAST NEWS
Rozmowa z prof. Sethem Tellerem z MIT o tym, dlaczego maszyny muszą nauczyć się patrzeć na świat jak ludzie

Marcin Rotkiewicz: – Już za pięć lat jedną trzecią naziemnych pojazdów armii amerykańskiej mają stanowić sterowane przez komputer samochody-roboty. Czy to możliwe?

Seth Teller: – Zdecydowanie nie. Choć właśnie takie zadanie Kongres USA postawił dziewięć lat temu Departamentowi Obrony.

Jednak DARPA, czyli wojskowa Agencja Zaawansowanych Obronnych Projektów Badawczych, w ostatnich latach zorganizowała trzy wyścigi samochodów-robotów. Może właśnie na nie liczy amerykańska armia?

Dopiero trzeci konkurs DARPA – Urban Challenge, w 2007 r., to było coś naprawdę ciekawego. Samochody-roboty miały przejechać trasę po mieście – posłużyła za nie baza US Army w Kalifornii. Były tam domy, ulice, na nich prawdziwy ruch miejski – niemal jak w realnym świecie. Zadanie, które postawiła DARPA, najbardziej pasowało do tego, czym zajmujemy się w naszym laboratorium w MIT.

Czyli?

Staramy się stworzyć maszyny „świadome” otaczającego je świata. Bez tego bowiem nie będą potrafiły rozwiązywać najbardziej podstawowych problemów – dostrzec, gdzie są przeszkody, czy jest dość miejsca, by wykonać manewr. Jeśli w pobliżu nas są jakieś obiekty – książki, szklanki, krzesło – to człowiek rozpoznaje je bez zastanowienia. Roboty, przynajmniej na razie, nie mają takiej zdolności. A jest ona niezbędna nie tylko do sprawnego poruszania się w świecie. Jeśli roboty mają być częścią naszego otoczenia, muszą zostać zaakceptowane przez ludzi. Stanie się tak jedynie, gdy będą podobnie do nas patrzeć na świat i interpretować otaczającą rzeczywistość.

Żeby to osiągnąć, trzeba je m.in. wyposażyć w zmysły podobne do ludzkich.

Największym problemem w robotyce nie jest tworzenie takich czujników, ale synteza napływających z nich danych. Mózg tworzy spójną mentalną reprezentację świata – przetwarza informacje, rozpoznając obiekty w otoczeniu, ustalając, gdzie kończy się jeden, a zaczyna inny, jakie są ich właściwości. Dostosowujemy zachowanie do różnie zbudowanych przedmiotów – nie tylko zatem rejestrujemy je zmysłami, ale przewidujemy, co się stanie, gdy wejdziemy z nimi w kontakt, oraz jak mogą zachować się za chwilę (np. inne samochody na drodze).
Drugim wielkim problemem jest planowanie. Np. rodzi się pomysł: posprzątam biurko. Niemal natychmiast powstaje plan działania. Tymczasem nie mamy algorytmów (czyli przepisów) układania planów dla robotów. To frustrujące, że potrafimy świetnie planować, ale kompletnie nie wiemy, jak to robimy.

Okna pańskiego laboratorium wychodzą na budynek McGovern Institute for Brain Research, zajmujący się badaniami nad mózgiem. Może tam znajduje się odpowiedź?

Myśli pan, że do niego nie zaglądamy? Cały czas spotykamy się z naukowcami z naprzeciwka, bo niewątpliwie biologia i neuronauka są dla nas inspirujące. Tyle że koleżanki i koledzy z McGovern Institute również nie mają pojęcia, jak mózgi radzą sobie z rozwiązywaniem zadań.

Zatem na rychłe powstanie sztucznej inteligencji nie ma co liczyć?

Szczerze? Nie używam pojęcia sztuczna inteligencja, ponieważ coś takiego nie istnieje.

To dość zaskakująca deklaracja w ustach profesora Laboratorium Informatyki i Sztucznej Inteligencji.

Istnieje coś takiego jak inteligencja biologiczna – system o niesamowitych zdolnościach, na razie skutecznie skrywający przed nami tajemnice swojego działania. Powtórzę: jego dwiema podstawowymi zdolnościami są tworzenie modeli otaczającego świata oraz uczenie się i planowanie. Roboty potrafią to w znikomym stopniu – bardzo daleko im nawet do poziomu dwuletniego dziecka. Zatem na razie sztuczna inteligencja, czymkolwiek jest, nie jest prawdziwą inteligencją.

Wróćmy do wyścigu Urban Challenge i waszego samochodu-robota.

Zdecydowaliśmy się wziąć w nim udział, ponieważ taki pojazd musiał być choć trochę „świadomy” swojego otoczenia i natychmiast reagować na jego zmiany – m.in. trzymać się prawej strony jedni, a zatem rozpoznawać, gdzie się ona kończy i gdzie znajduje się linia rozdzielająca pasy ruchu. Musiał też wiedzieć, gdzie są inne samochody, zatrzymać się przed skrzyżowaniem, przepuścić pojazdy.
Nafaszerowaliśmy naszego Land Rovera czujnikami – miał dziesiątki laserowych dalmierzy, radar, no i oczywiście kamery. Za przednimi siedzeniami znajdowało się 40 komputerów, analizujących napływające dane i dwie bardzo szybkie magistrale do ich przesyłania. Dlatego musieliśmy zamontować dodatkową klimatyzację, chłodzącą elektronikę oraz generator prądu. Oczywiście sam sprzęt niewiele da – trzeba było napisać algorytmy interpretujące dane. Nad projektem pracowało 30 ludzi, wydaliśmy 3 mln dol.

Do wyścigu zgłosiło się 89 zespołów. Zaledwie sześć go ukończyło, wy na czwartym miejscu. Wygrał zespół z Carnegie Mellon University. W czym ich auto okazało się lepsze?

Wszystkie samochody-roboty miały podobne oprogramowanie i systemy czujników. Oczywiście, dawało się dostrzec pewne różnice – np. w rozmieszczeniu laserów czy w algorytmach komputerowych. Ważną rolę odegrała zatem taktyka. DARPA na dzień przed wyścigiem udostępniła dokładną mapę terenu i wiele zespołów przez całą noc nanosiło w komputerach trasę punkt po punkcie. My postawiliśmy na większą autonomię naszego robota. To zresztą moje największe zastrzeżenie do konkursu i nawet napisałem w tej sprawie list do DARPA: jeśli chcecie mieć naprawdę autonomiczne roboty, dajcie zespołom mapę pięć minut przed wyścigiem i zabrońcie używania GPS.

Gdyby wprowadzono takie zasady, wasz robot by wygrał?

Niekoniecznie, raczej żaden zespół nie ukończyłby wyścigu. I byłoby to z pożytkiem dla konstruktorów robotów – taka porażka to silny bodziec do szukania lepszych rozwiązań. Problemy bowiem, które pojawiły się przed i w trakcie wyścigu, to świetny materiał na co najmniej kilka rozpraw doktorskich. Np. jeden z moich studentów zajął się kwestią rozpoznawania przez komputer drogi – głównie linii oddzielającej pasy ruchu na jezdni czy chodnika. Jeśli wystąpią trudne warunki pogodowe – deszcz, odbicia słońca, śnieg, cienie – robi się naprawdę ogromny kłopot dla autora algorytmu. Podobnych zagadnień jest zresztą wiele. Choćby rozpoznawanie znaków drogowych – jak na razie nieosiągalne dla maszyn.

Poza samochodem-robotem, czym jeszcze zajmuje się pański zespół?

Innymi pojazdami sterowanymi przez maszyny z niewielką pomocą człowieka. Pracujemy teraz nad wózkiem widłowym, kierowanym komendami głosowymi i gestami dłoni, oraz wózkiem inwalidzkim. Takie wózki inwalidzkie mogą przydać się m.in. pacjentom szpitali, którzy z różnych powodów nie poruszają się samodzielnie po budynku i mają unieruchomione ręce. Rozwiązaniem dla nich byłby robot rozumiejący komendy: „zawieź mnie do stołówki” albo „chcę jechać do recepcji”. Wyposażenie takiego urządzenia w mapę budynku z zaznaczonymi wszystkimi ważnymi lokalizacjami jest skomplikowane i czasochłonne. Co w podobnych sytuacjach robią ludzie? Poznają nowe miejsce, chodząc po nim lub ktoś ich oprowadza. Wpadliśmy zatem na pomysł, by zbudować robota, którego raz oprowadzi się po nowym terenie i pokaże, co gdzie jest, a on to zapisze w pamięci.

Robi się to za pomocą bezprzewodowego mikrofonu, mówiąc np.: „zapamiętaj to miejsce: tu jest recepcja szpitala”. Maszyna rozpoznaje mowę i potwierdza dodanie recepcji do swojej mapy. Jeśli osoba na wózku powie teraz: „zawieź mnie do recepcji”, to on tam pojedzie.
Wózki-roboty mają też takie udogodnienie, że wystarczy oprowadzić po danym terenie jeden egzemplarz, a on przekaże swoją wiedzę innym maszynom. Oczywiście, potrafi też omijać przeszkody, w tym chodzących ludzi. Jak taki wózek inwalidzki działa, można zobaczyć na YouTube, wpisując w wyszukiwarkę „robotic wheelchair”.

To na razie tylko prototyp?

Tak. Zbudowaliśmy egzemplarze doświadczalne, ale już prowadzimy rozmowy na temat komercjalizacji tego pomysłu. Jeśli zakończą się powodzeniem, za 3–5 lat wózek-robot powinien znaleźć się na rynku.

Japończycy już teraz chwalą się m.in. inteligentnym robotem-psem AIBO czy Artemisem, patrolującym galerie handlowe. Nie jesteście w tym wyścigu za nimi?

Obydwa urządzenia są niewątpliwie ciekawe, ale nie aż tak sprawne, jakby się mogło wydawać. Twórcy Artemisa nazywają go ochroniarzem. Jestem ciekaw, czy gdy ktoś ukryje się w galerii handlowej, robot będzie w stanie drobiazgowo ją przeszukać. Zajrzeć za i pod każdy sklepowy mebel, a przede wszystkim znaleźć tego człowieka. Wielce wątpliwe…

Od pewnego czasu można natomiast kupić samochody, które potrafią same parkować, np. produkowane przez Volkswagena. Czy stosują rozwiązania podobne do waszych?

Tak, systemy czujników i algorytmy przypominają te, których użyliśmy w trakcie Urban Challenge. Jednak największa różnica polega na tym, że obecne na rynku komercyjne systemy stanowią rozwiązanie jedynie części problemu, stojącego przed konstruktorami całkowicie samodzielnych maszyn. Np. automatyczne parkowanie może się rozpocząć jedynie po odpowiednim ustawieniu samochodu przez kierowcę. Z kolei system czuwający nad przekraczaniem linii na drodze jedynie ostrzega dźwiękiem i nie koryguje kierunku jazdy. Musi to zrobić człowiek.

Czy amerykańskie koncerny samochodowe interesują się waszymi pracami i chcą coraz bardziej automatyzować auta?

Owszem, np. Ford wspomaga nasze badania, ponieważ myśli o zastosowaniu opracowanych w MIT algorytmów w swoich samochodach. Jednak kiedy przyjeżdżają do nas przedstawiciele tego koncernu, rozmawiamy o zastosowaniach mających wejść w życie w ciągu ćwierćwiecza. To dość odległa perspektywa.

Czy to możliwe, że za te ćwierć wieku samochody będą jeździć bez naszej pomocy, a my staniemy się jedynie pasażerami?

To prawdopodobny scenariusz, ale nie wiem, czy zostanie zrealizowany już za 25 lat. Pewnie będzie się to odbywało stopniowo. Np. tylko po wjeździe na autostradę będziemy włączać autopilota. Z czasem jednak komputer przejmie pełną kontrolę nad kierowaniem. Jeśli tylko okaże się, iż roboty powodują mniej wypadków, na pewno zgodzimy się na rolę wyłącznie pasażerów. Gra toczy się bowiem o tysiące istnień ludzkich – tyle osób co roku ginie na drogach w samych USA. Zresztą już trochę tej władzy nad samochodem się pozbywamy. Bo czym jest ABS, jak nie chwilowym przejęciem przez komputer kontroli nad hamowaniem?

A co z odpowiedzialnością za wypadki takich autonomicznych robotów? Będzie ponosił ją konstruktor, producent czy może właściciel?

Wbrew pozorom, to nie jest pytanie wyłącznie o przyszłość. Odkąd pojawiły się komputery sterujące samolotami czy kolejkami, jak np. na niektórych lotniskach, kwestia ta jest rozpatrywana. Gdy dochodzi do wypadku, odpowiednie instytucje, np. w USA jest to NTSB (Narodowa Rada Bezpieczeństwa Transportu), badają wszystkie okoliczności i wydają werdykt. Zostaje w nim określona proporcjonalna wina tego, kto zaprojektował dany pojazd, pisał oprogramowanie, używał go oraz odpowiadał za cały system komunikacji. Myślę zatem, że ustalenie odpowiedzialności nie będzie aż tak wielkim problemem.

Czy z pańskiej perspektywy większą przeszkodą w powstaniu robotów widzących świat podobnie jak my jest sprzęt, a więc np. zbyt wolne komputery, czy oprogramowanie? Samochodem MIT sterowało aż 40 komputerów, ledwo mieszczących się w aucie. Może więc przyszłością robotyki jest zastosowanie nietypowych rozwiązań, np. modnych w ostatniej dekadzie tzw. sztucznych sieci neuronowych?

Zacznijmy od tych 40 komputerów. To, że nasz Land Rover z trudem pomieścił całą elektronikę, nie stanowi problemu. Gwarantuję panu, że za 10 lat cała ta maszyneria zmieści się w obudowie wielkości pudełka od butów. Co do tzw. sieci neuronowych, nie stosowaliśmy ich, bo w nie po prostu nie wierzę. Nikt nie ma pojęcia, co się wewnątrz nich dzieje. Największy zatem problem to nie sprzęt, czyli hardware, ale software. Nie potrafimy stworzyć dla komputerów mentalnego modelu świata, zbudowanego na podstawie danych pochodzących z czujników. Nie wiemy bowiem, jak taki model kreuje człowiek. Jeśli zajrzy się do mózgu, widzimy w nim jedynie galaretowatą substancję – ale co dokładnie jest w niej zapisane, jakie dane, w jaki sposób? Nikt nie zna odpowiedzi na te pytania.

 

Seth Teller jest profesorem w Massachusetts Institute of Technology, jednej z najlepszych uczelni technicznych na świecie. Pracuje w Laboratorium Informatyki i Sztucznej Inteligencji, gdzie kieruje Robotics, Vision, and Sensor Networks Group (grupą badawczą zajmującą się robotyką, zmysłem widzenia oraz sieciami różnego rodzaju czujników).

Więcej na ten temat
Reklama

Czytaj także

Ludzie i style

Wypadki kolarzy

Zawodowym peletonem raz po raz wstrząsają wiadomości o ciężkich wypadkach kolarzy. To tylko kumulacja pecha czy coś więcej?

Marcin Piątek
20.08.2019
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną