Marcin Rotkiewicz: – „Nie używam pojęcia sztuczna inteligencja (SI), ponieważ coś takiego nie istnieje” – powiedział pewien amerykański profesor zajmujący się budową samochodów robotów. Pan też nie wierzy w istnienie SI, choć się nią zajmuje?
Grzegorz J. Nalepa: – To zależy, jak zdefiniujemy to pojęcie. Początki SI, jako dziedziny badań naukowych, były rzeczywiście okresem wielkich nadziei i równie wielkich pieniędzy płynących z budżetów wojskowych. Bo SI narodziła się w połowie lat 50. ubiegłego wieku, a więc w czasach zimnej wojny, gdy kilku amerykańskich naukowców zebranych w Dartmouth College po raz pierwszy posłużyło się tą nazwą. W latach 60. towarzyszyła jej euforia – udało się skonstruować systemy komputerowe robiące, jak się wówczas wydawało, zadziwiające rzeczy. To jednak nie trwało długo. Po pierwszej fascynacji przyszło rozczarowanie, a wraz z nim wyschła szeroka rzeka funduszy wojskowych. Hasło „sztuczna inteligencja” wręcz przestało być modne, a ludzie, którzy się nią zajmowali, zaczęli odnosić się do konkretnych narzędzi i np. mówić: „nie zajmujemy się SI, pracujemy nad sztucznymi sieciami neuronowymi”.
Czy można próbować tworzyć „sztuczną” inteligencję, jeśli nie potrafimy precyzyjnie określić, czym w ogóle jest inteligencja? W psychologii mamy kilkadziesiąt jej definicji…
To prawda. Powtórzę za jednym z podręczników SI: inteligencja to jest coś, co dużo łatwiej rozpoznajemy, niż definiujemy.
Jak zatem wybrnąć z tego kłopotu?
Niektórzy badacze SI uważali, że trzeba obserwować aktywność człowieka wymagającą inteligencji, czyli np. grę w szachy. Jeśli zbudujemy urządzenie potrafiące robić to samo, będziemy mieli system inteligentny.
Ponad dekadę temu komputer Deep Blue wygrał z Garrim Kasparowem, ale nie stał się przez to inteligentny. W 1950 r. matematyk Alan Turing zaproponował swój słynny test SI. W uproszczeniu polega on na tym, że jeśli nie będziemy w stanie na podstawie rozmowy rozpoznać, że po drugiej stronie jest maszyna, to znaczy, że stała się ona inteligentna. To dobre kryterium?
Niektórzy żartują, że wielu ludzi nie przeszłoby testu Turinga. Mówiąc poważnie: zdolność maszyny do prowadzenia swobodnej konwersacji na dowolny temat byłaby na pewno sporym osiągnięciem. Tylko od razu pojawia się pytanie – po co nam coś takiego? Prędzej czy później chcielibyśmy takiej SI użyć w jakimś konkretnym celu. I wtedy najpewniej okazałoby się, że, owszem, możemy z komputerem porozmawiać o poezji czy wyborach prezydenckich w USA, ale tak naprawdę potrzebujemy go np. do skutecznej gry na giełdzie czy kierowania pojazdem. Rok temu system komputerowy Watson firmy IBM pobił ludzi w teleturnieju „Jeopardy!” [w polskiej wersji nazywał się „Va Banque” i polegał na udzielaniu odpowiedzi w formie pytań: np. „Był to syn Mieszka I”; prawidłowa odpowiedź: „Kim był Bolesław Chrobry?” – przyp. red.]. Dużo się o tym mówiło, ale co konkretnego wynika z tej gadaniny poza świetną akcją marketingową firmy IBM? Podobno Watson ma się w przyszłości przyczynić do usprawnienia automatycznych infolinii. Proszę więc zauważyć, że od razu pojawia się jakieś konkretne wąskie zastosowanie systemu, a nie mówi się o tworzeniu ogólnie inteligentnych maszyn.
I właśnie czymś takim pan się też zajmuje, czyli szukaniem bardzo konkretnych rozwiązań? Nie tylko ja. SI można nawet postrzegać jako część informatyki, rzekłbym wręcz – jej awangardę, bo polega na szukaniu nowatorskich rozwiązań konkretnych trudnych problemów.
Czyli co dokładnie pan robi?
Zacząłem swoją pracę od tzw. systemów ekspertowych. Jest to jedna z tych dziedzin sztucznej inteligencji, która odniosła już sukces, a jej początki sięgają lat 80. ubiegłego wieku. Systemy te służą do wspomagania decyzji w różnych sytuacjach. Na czym to polega? Proszę sobie wyobrazić eksperta, czyli osobę posiadającą wiedzę z dobrze zdefiniowanej wąskiej dziedziny. My próbujemy zbudować system komputerowy, który będzie potrafił takiego eksperta zastąpić lub przynajmniej go wspierać. Można sobie np. wyobrazić system wspomagający lekarza internistę, czyli pytający o różne objawy choroby i stawiający na tej podstawie diagnozę.
Jak to się robi?
Np. tworząc modele matematyczne oparte na języku logiki, czym ja się zajmuję. Inaczej mówiąc, próbuję rozumowanie człowieka opisywać za pomocą modeli opartych na logice, a następnie tworzyć program, który da się uruchomić na komputerze.
W jakich dziedzinach tworzy pan komputerowych ekspertów?
Między innymi w biznesie. Można zbudować system, który służyłby do udzielania kredytów. System taki będzie pytał o pańskie zarobki, wydatki etc., a później podejmował decyzję, czy dostanie pan z banku pożyczkę, czy też nie.
Takie systemy są nam naprawdę potrzebne?
Tak, choćby po to, by wyeliminować ludzkie błędy. Z kolei medyczne systemy stawiające diagnozy mogą przydać się tam, gdzie nie może dotrzeć lekarz.
Jest w tym jakiś teoretyczny, naukowy problem?
Gdy mamy bardzo dużo reguł, dotyczących np. udzielania kredytów czy diagnozy choroby, to wyzwaniem jest usprawnienie projektowania tego typu systemów. W swojej pracy doktorskiej podjąłem próbę wizualizacji, czyli pogrupowania podobnych reguł w tablice decyzyjne, dzięki czemu można łatwiej budować taki system.
Ale nie tylko tym zajmuje się pański zespół?
Poza business intelligence interesuje nas również obszar tzw. ambient intelligence, czyli otaczających człowieka systemów inteligentnych. Można je bowiem umieszczać w urządzeniach powszechnie stosowanych w domach czy biurach – m.in. smartfonach, telewizorach, samochodach czy lodówkach. Przykładem tego typu rozwiązań są telewizory sterowane gestami lub mową. Technologia ta zrobiła również furorę w konsolach do gier. Mój zespół szczególnie interesuje umożliwienie urządzeniom rozpoznawania otoczenia, w którym się znajdują. Chodzi o to, żeby np. telefon komórkowy czy laptop automatycznie włączał lub wyłączał pewne opcje w zależności od tego, czy jesteśmy w domu czy w pracy. Urządzenie może sczytywać identyfikatory bezprzewodowej sieci komputerowej lub komórkowej.
Co może nam dać ambient intelligence w lodówce?
Powiedzmy, że wkłada pan do zamrażalnika pizzę, a lodówka informuje, iż lepiej będzie ją wyrzucić, bo została wyprodukowana wtedy i wtedy, a ponadto była przechowywana w sklepie przez 8 godzin w temperaturze 2 st. C i ponownie zamrożona, więc nie należy jej jeść. Skąd będzie to wiedziała? Dzięki miniaturowemu chipowi umieszczonemu w opakowaniu pizzy komunikującemu się z każdym urządzeniem, w którym była przechowywana. W sumie to są proste technologie.
Jakimi jeszcze zastosowaniami SI zajmuje się pański zespół?
Między innymi systemami wspomagającymi osoby starsze (ambient assisted living). W Europie, Japonii i USA przeznaczane są na to ogromne nakłady, bo jest to jedna z prób zastosowania inżynierii do złagodzenia problemów wynikających ze starzenia się społeczeństw. Chodzi np. o wsparcie seniorów od strony komunikowania się, by nie byli wykluczeni ze społeczeństwa. Systemy takie niosą również pomoc w uczeniu się za pomocą najnowszych urządzeń technicznych, bo wiele z tych osób chce nadal być aktywnych intelektualnie i poszerzać swoją wiedzę Można wyobrazić sobie system, który sprawdza stan zdrowia danej osoby w jej własnym domu, np. czy nie upadła. Trzeba go skonstruować tak, żeby potrafił odróżnić upadek od położenia się na podłodze, by, dajmy na to, wyciągnąć jakiś przedmiot, który wpadł pod łóżko. Albo np. telefon monitorujący stałą trasę do sklepu pokonywaną przez starszą osobę. Gdyby z trasy zboczyła, system powinien móc podpowiedzieć, jak najłatwiej odnaleźć drogę do domu, a także odpowiedzieć na proste pytanie: „Gdzie jestem?”. Pracując nad tego typu rozwiązaniami, współdziałamy już ze stowarzyszeniem z Krakowa wspierającym seniorów. Dlatego jeden z naszych projektów nazywał się „Przyboczny wnuczek”.
Studiował pan również filozofię i teraz nawet wykłada w Instytucie Filozofii Uniwersytetu Jagiellońskiego.
Rzeczywiście, choć powrót do Instytutu Filozofii w roli pracownika dla mnie samego był pewnym zaskoczeniem. Dlaczego? Bo studia filozoficzne to mój drugi fakultet. Najpierw skończyłem automatykę i robotykę w Akademii Górniczo- Hutniczej w Krakowie i tam obroniłem doktorat oraz uzyskałem habilitację. Ale po studiach podstawowych czułem pewien niedosyt, więc filozofia miała być zrobieniem czegoś wyłącznie dla własnej intelektualnej satysfakcji.
Z jakiego powodu wybrał pan akurat ten kierunek?
O decyzji przesądziła pewna konferencja na AGH, podczas której dyskutowali znani filozofowie: prof. Władysław Stróżewski i ksiądz prof. Michał Heller. Przysłuchując się im uznałem, że właśnie ten kierunek będzie dla mnie największym intelektualnym wyzwaniem. I okazało się, że był to strzał w dziesiątkę. Pewnie na ten wybór miała również wpływ fascynacja twórczością Stanisława Lema, który zbyt często szufladkowany jest tylko jako pisarz science fiction, choć był, moim zdaniem, przede wszystkim humanistą, w tym po trosze filozofem. W jego książkach kwestie wpływu technologii na społeczeństwo są ogromnie ważne.
Co pan teraz robi w Instytucie Filozofii UJ?
Niecałe trzy lata temu włączyłem się w organizowanie nowego kierunku studiów – kognitywistyki [dziedzina badająca działanie umysłu, w szczególności jego modelowanie; jako nauka multidyscyplinarna łączy: psychologię, neurobiologię, filozofię umysłu, sztuczną inteligencję, lingwistykę i fizykę – przyp. red.]. Dzięki temu mogę pracować, co jest bardzo inspirujące, m.in. z psychologami i filozofami. Natomiast studentom wykładam wstęp do informatyki i sztucznej inteligencji.
Czyli jednak zajął się pan sztuczną inteligencją na tym najbardziej ogólnym i teoretycznym poziomie?
Na razie niewiele mogłem zrobić w badaniach teoretycznych nad SI czy umysłem człowieka, bo zajmowaliśmy się wyłącznie przyziemnymi i bardzo pracochłonnymi kwestiami organizacyjnymi nowego kierunku studiów. Ale mamy oczywiście mnóstwo pomysłów badawczych i nie ukrywam, że chętnie znalazłbym więcej czasu na pracę tego typu, a projekty praktyczne w większym zakresie przekazał mojemu świetnemu zespołowi.
To pofilozofujmy trochę. Jaki test skonstruowałby pan zamiast słynnej próby Turinga?
Przełomem mogłoby okazać się stworzenie systemów, które potrafią rozwiązywać problemy w taki sposób, na jaki ich konstruktorzy by nie wpadli. Czyli do pewnego stopnia kreatywnych.
Czego nam brakuje – odpowiednio mądrego oprogramowania, czy też współczesne komputery są zbyt mało wydajne?
Na razie nie mamy odpowiedniego sprzętu i być może ograniczeniem jest jego sposób działania. Są koncepcje, które mówią, że nasz mózg pracuje podobnie jak komputer kwantowy. A jeśli tak, to być może dopiero maszyny kwantowe pozwolą nam dokonać przełomu.
W wielu filmach i książkach science fiction taka kreatywna, wysoko rozwinięta SI okazuje się w końcu zagrożeniem dla ludzi. Przychodzą panu do głowy tego typu obawy?
Nie boję się Matrixów, Terminatorów czy komputerów typu HAL 9000 z „2001: Odysei kosmicznej”. Nie wiem, kiedy tak zaawansowane maszyny powstaną i dlaczego miałyby zwrócić się przeciwko nam. Dziś o wiele bardziej niebezpieczne okazują się rozwiązania techniczne zagrażające naszej wolności i prywatności. Właśnie tym powinniśmy się zajmować.
Wspomniał pan o swojej grupie badawczej z AGH – w pańskim biogramie można przeczytać: „Za moje największe naukowe osiągnięcie uważam nie liczne publikacje, lecz stworzenie prężnego zespołu młodych, dynamicznych ludzi”.
Bo dzięki zespołowi można zrobić dużo więcej – realizować projekty, których nigdy nie udałoby się przeprowadzić samemu. Zresztą współczesna nauka oparta jest na działaniach grupy i raczej nie ma w niej wiele miejsca dla samotników. Chciałem podkreślić tę kwestię również dlatego, że sytuacja na polskich uczelniach niestety nie zawsze sprzyja wspieraniu pracy zespołowej. Dlatego tak istotne jest, że w tych niełatwych warunkach udało mi się stworzyć możliwości pracy grupce zdolnych ludzi, zatrzymać ich i sprawić, by chcieli i mogli pozostać w nauce, również zapewniając im w miarę przyzwoitą sytuację finansową.
Pański zespół nazywa się bardzo ciekawie: GEIST, czyli po niemiecku „duch”…
To od słynnego „ducha w maszynie”. Ponadto wybraliśmy taką nazwę ze względu na współpracę z niemieckimi naukowcami.
Kierowanie ludźmi to chyba jedno z najtrudniejszych wyzwań. Jaka jest pana recepta?
Chyba jednym z ważniejszych elementów jest umiejętność powiedzenia „nie miałem racji”. Liczy się też indywidualne podejście do każdego, bo ludzie to nie maszyny. Mają swoje pragnienia, cele i własne metody rozwiązywania problemów. Nie można tłamsić indywidualności, bo w różnorodności tkwi siła. Ponadto wcale nie jest tak ważne pilnowanie, co kto zrobił, czyli proste zarządzanie. Zamiast tego należy wskazywać kierunek, by zespół się rozwijał i miał ambitne cele. Taki lider musi jednak być primus inter pares, czyli pierwszym wśród równych sobie. Czasami trzeba więc po prostu zakasać rękawy i wziąć się do roboty na równi z własnymi pracownikami. Zawsze też starałem się szukać ludzi lepszych od siebie, bo tylko wówczas można naprawdę się rozwijać.
Dr hab. inż. Grzegorz J. Nalepa (ur. w 1975 r.) – adiunkt w Katedrze Informatyki Stosowanej Akademii Górniczo-Hutniczej w Krakowie. Jest również wykładowcą w Instytucie Filozofii Uniwersytetu Jagiellońskiego i współtwórcą kierunku kognitywistyka, gdzie filozofia spotyka się ze sztuczną inteligencją, informatyką, psychologią czy neurobiologią. Był także jednym z założycieli, a obecnie pełni funkcję prezesa Polskiego Stowarzyszenia Sztucznej Inteligencji.