Nauka

Jak przyrządzić kawę, będąc martwym

Czy sztuczna inteligencja zagrozi ludzkości?

Żeby sztuczna inteligencja była nam przyjazna i przydatna, musimy się upewnić, że nauczy się naszych celów, uzna je za swoje i przy nich wytrwa. Żeby sztuczna inteligencja była nam przyjazna i przydatna, musimy się upewnić, że nauczy się naszych celów, uzna je za swoje i przy nich wytrwa. iLexx / PantherMedia
Sztuczna inteligencja nami zawładnie, wieszczą media. Co na to specjaliści?
Zdaniem Elona Muska świadoma inteligencja zginie, jeśli nie pozwolimy jej opuścić Ziemi.123 RF Zdaniem Elona Muska świadoma inteligencja zginie, jeśli nie pozwolimy jej opuścić Ziemi.

Artykuł w wersji audio

Lato roku 10 673 498 p.n.e. było gorące, sawanna spieczona słońcem, a że drzewa owocowe pięknie obrodziły, motywacja do zejścia z nich i podjęcia trudu dalszej ewolucji była słaba. Pogłębiając więzi społeczne na drodze wzajemnego iskania, przodkowie Michała Anioła, Mozarta, Kopernika i Lema podjęli dyskusję na najbardziej palący ich wówczas temat: czy oparty na skanerze podczerwieni moduł rozpoznawania twarzy, zainstalowany w modelu iPhone’a z 2017 r., nie podsunie rządom narodowym narzędzia totalnej dominacji? Wynik tej ważkiej dyskusji miał zaważyć na decyzji, czy brać udział w rozwoju cywilizacji czy nie?

Ten obraz podkreśla niejaką absurdalność naszych dzisiejszych rozważań związanych z rozwojem technologii, zwłaszcza sztucznej inteligencji (będziemy używać skrótu AI, od Artificial Intelligence). Temat AI ma charakter rytualnie nawracający, ale ostatnio media atakowały nim wyjątkowo intensywnie, by wspomnieć tylko ostrzeżenia formułowane przez Stephena Hawkinga, ikonę fizyki i popkultury, oraz Elona Muska, przedsiębiorcę z biznesplanem na skalę międzyplanetarną. Temperaturę podniosło też doniesienie o AlphaGo Zero, sztucznej inteligencji z laboratoriów DeepMind, która na mistrzowski poziom gry w Go wzniosła się, nie studiując zarchiwizowanej rozgrywki, nie grając z człowiekiem, a wychodząc z zasad pierwszych i ucząc się na własnych błędach. Zero nie potrzebuje ludzkiej wiedzy – Zero odkrywa lądy wiedzy całkiem nam nieznanej. Co odkryje np. wśród danych z akceleratorów cząstek elementarnych? Czy dowie się, jak wygrywać wybory za pomocą Twittera?

Z całego tego szumu informacyjnego wokół AI wyłania się jedno zasadnicze pytanie: czy schodzić z tego (metaforycznego) drzewa czy lepiej nie? Bać się tej sztucznej inteligencji czy nie? Bać, ale inaczej. Coś rzeczywiście jest na rzeczy, o czym za chwilę, ale media dały podręcznikowy popis dezinformacji. Hawking, Musk i inni ostrzegali, to prawda, ale nie przed inwazją robotów zabójców i nie przed przywoływaniem „demona” sztucznej inteligencji. Prawdą natomiast jest, że w styczniu 2015 r., razem z tysiącami innych specjalistów w dziedzinie AI (i nie tylko), podpisali apel, by zaprzestać badań nieukierunkowanych, a skupić się wyłącznie na poszukiwaniu sztucznej inteligencji o charakterze dobroczynnym. Drugi list otwarty dotyczył zakazu stosowania broni autonomicznej. Dlaczego? Wystarczy sobie wyobrazić atak setki tanich, małych (ale zdolnych unieść pistolet) dronów z modułami rozpoznawania twarzy (wyjętych choćby z nowego iPhone’a) na konkretne wybrane osoby (np. Radę Ministrów lub prezydenta). Wojna światowa instant.

Puerto Rico. 2015 r.

Utrzymane w alarmistycznym tonie doniesienia były medialnym artefaktem, efektem ubocznym historycznej konferencji w Puerto Rico (styczeń 2015 r.) poświęconej konsekwencjom rozwoju AI. Jej uczestnikami byli badacze, przedsiębiorcy, programiści, prawnicy, etycy, historycy, filozofowie, a głównym organizatorem – Future of Life Institute (FLI), założony w 2014 r. przez Maxa Tegmarka, utalentowanego i rzutkiego szwedzko-amerykańskiego fizyka i matematyka. FLI jest jedną z kilku tego typu organizacji, których celem jest upewnienie się, że „życie nie przestanie istnieć i będzie tak wspaniałe, jak to tylko możliwe”. Bez wątpienia sztuczna inteligencja odegra w tym istnieniu zasadniczą rolę. Wynik głosowania przeprowadzonego wśród uczestników konferencji był jednoznaczny: eksplozja AI, czyli osiągnięcie poziomu odpowiadającego ludzkiemu, nastąpi w ciągu kilkudziesięciu najbliższych lat. Tegmark poświęcił temu wydaną w sierpniu tego roku książkę „Life 3.0: Being Human in the Age of Artificial Intelligence”. Przedstawia możliwe scenariusze przyszłych zdarzeń. Jak zostać uczestnikiem tego najkorzystniejszego?

Biorąc pod uwagę dynamikę rozwoju badań nad AI, należy słuchać rad ludzi takich, jak Elon Musk, twórca PayPala, Tesli, firmy SpaceX, rychły kolonizator Marsa. On także brał udział w konferencji w Puerto Rico, podpisał się pod listem o broni autonomicznej. Był kluczowym fundatorem FLI. W przeciwieństwie do Tegmarka, który utrzymuje rodzinę z teoretyzowania, Musk jest praktykiem – 80 proc. czasu spędza z inżynierami w laboratoriach lub doglądając rakiet. Na temat AI ma zdanie konkretne: demokratyzacja. Jak mantrę powtarza za filozofem politycznym Johnem Actonem (1834–1902), że wolność składa się z dystrybucji władzy, a despotyzm z jej koncentracji. Technologię i wiedzę na temat AI należy czynić powszechnie dostępną. Sam zresztą uruchomił nonprofitowy projekt OpenAI z takim właśnie celem w statucie. Tylko tworzona kolektywnie przyjazna AI ma szansę utrzymać w ryzach inteligencję Made by Wielka Korporacja.

Już dziś zasługujemy na miano superludzi, zauważa Musk. Smartfony rozszerzają nasze możliwości w sposób niewyobrażalny jeszcze 10 lat temu. Każdą myśl poddają globalnej dystrybucji. Ale przeszkodą jest interfejs. O ile przepustowość na wejściu (zmysł wzroku) jest ogromna, o tyle na wyjściu limitowana dramatycznie przez sprawność dłoni i tego, co jesteśmy w stanie nimi wyklikać na ekranie lub klawiaturze. Przełom nadejdzie z chwilą pojawienia się złącza między komputerem a korą mózgu, które pozwoli na transmisję myśli, nie tylko między istotami ludzkimi, ale i sztucznymi. O takim właśnie globalnym bioinformatycznym kolektywie myśli Musk. Demokratyzacja plus interfejs równa się dobra przyszłość.

Oczywiście zrozumiała jest wątpliwość, czy aby Musk nie ma w tym projekcie własnej, nie do końca miłosiernej, agendy. Ogłosił właśnie chęć budowy sieci złożonej z prawie 4,5 tys. satelitów, które wespół ze stacjami naziemnymi zapewniałyby dostęp do internetu każdemu, wszędzie, zawsze, z parametrami przewyższającymi instalacje światłowodowe. Niewykonalne, a już na pewno nie w ciągu kilku lat, jak założył Musk? Warto pamiętać o rakiecie Falcon 9, która w samym 2017 r. odbyła kilkanaście misji, bezbłędnie lądując na lądzie i na platformie pośród oceanu. Kiedy w 2002 r. Musk założył SpaceX, ani on, ani żaden z zatrudnionych przez niego inżynierów nie wiedzieli prawie nic o budowie podobnych urządzeń. Dziś ogłasza program kolonizacji Układu Słonecznego, wyjaśniając, że świadoma inteligencja sczeźnie, jeśli nie pozwolimy jej opuścić Ziemi.

Życie w wersji 3.0

Także Tegmark rozwój cywilizacji rozumie jako długie pożegnanie z błękitną planetą. Proste, biologiczne życie w wersji 1.0 zdolne jest do przetrwania i reprodukcji. Życie w wersji 2.0 potrafi samodzielnie pisać własne oprogramowanie, software, czyli innymi słowy kulturę. Życie w wersji 3.0, któremu Tegmark poświęca większość rozważań zawartych w książce, zdolne będzie do projektowania własnego hardware’u, czyli przybierania dowolnej formy. Uwolnioną od ciężaru ciała inteligencję można będzie przesyłać z prędkością światła w dowolny region kosmosu, by się rozrastała, pączkowała, dawała początek nowym ośrodkom świadomości, karmionym energią gwiazd i czarnych dziur…

Tegmark nawiązuje do klasycznych już futuryzmów Freemana Dysona i Konstantego Ciołkowskiego. Należy do uczonych przekonanych, że świadomość jest fenomenem rzadkim i cennym, nadającym znaczenie kosmosowi, a nie odwrotnie. Zamiast narzekać na technologię, wejdźmy z nią w intymną relację, bo tylko ona, przy zachowaniu ostrożności, pozwoli życiu przetrwać i kwitnąć, pisze Tegmark. Parafrazując słowa fizyka: zamiast lękać się przyszłości, ogonem kurczowo trzymać gałęzi, jak wspomniane we wstępie hominidy, zacznijmy myśleć o czasie przyszłym z nadzieją. Zamiast mówić o strachu, zacznijmy mówić o celach dalszej ewolucji.

Celem materii jest rozpraszanie energii. Celem materii ożywionej jest rozmnażanie, powielanie samego siebie. Celem świadomej inteligentnej materii ożywionej jest… No właśnie, co? Celem AI do gry w szachy jest szach-mat. Celem AI do diagnostyki medycznej jest trafna diagnoza medyczna. Co byłoby celem uniwersalnej AI? Żeby taka inteligencja była nam przyjazna i przydatna, pisze Tegmark, musimy się upewnić, że nauczy się naszych celów, uzna je za swoje i przy nich wytrwa. Powtórzmy więc pytania: Jakie są nasze cele? Jaki jest sens życia? I co to znaczy sens?

Być może po raz pierwszy w dziejach ludzkości odnalezienie odpowiedzi na pytania o imperatyw ostateczny staje się warunkiem przetrwania. Nick Bostrom, szwedzki filozof z University of Oxford, określa te rozmyślania mianem filozofii z deadlinem. Ale jak zasugerować AI system wartości, z którego zdefiniowaniem sami mamy problemy? Możemy np. zwrócić się do kolejnego pragmatycznego praktyka Stuarta Russella, brytyjsko-amerykańskiego współtwórcy nauk o sztucznej inteligencji. Studentom 1,3 tys. uniwersytetów na całym świecie Russell znany jest jako współautor, obok Petera Norviga, szefa działu badawczego w Google, kanonicznego podręcznika w tej dziedzinie. Russell przypomina słowa Norberta Wienera (1894–1964), geniusza matematyki i filozofii. Mawiał on, że jeśli chcemy osiągnąć jakiś cel za pomocą komputera, na którego wewnętrzne procesy mamy ograniczony wpływ, to lepiej upewnijmy się, że zadany mu cel jest tym, którego naprawdę pożądamy. Rozczarowań unikniemy, przekonuje Russell, jeśli zastosujemy się do trzech zasad. Po pierwsze, AI musi dokładać wszelkich starań, by postępować zgodnie z ludzkim systemem wartości. Po drugie, początkowo musi być niepewna, jaki jest ten system, by, po trzecie, musiała się go sama nauczyć, obserwując ludzi. W skrócie chodzi o to, by AI nie nabrała przekonania, że o motywacjach ludzi wie więcej niż oni sami i w razie konieczności pozwoliła się wyłączyć. To casus znany w branży pod hasłem: Jak przyrządzić kawę, będąc martwym? Robot przygotowujący napój może bowiem w imię zadanej mu idei (przyrządzenia kawy) dezaktywować swój wyłącznik i wyrwać się spod kontroli. Musi więc rozumieć, że jeśli zostanie wyłączony, to dla dobra ludzkości.

Monitoring z Hagi

Kwestia zagwarantowania sobie przyjaźni sztucznej inteligencji jest poważna i oczywiście dalece bardziej skomplikowana. Szczęśliwie porozumienie ku „maksymalizacji społecznych korzyści i zadbaniu o aspekty etyczne” zawiązało się nawet po stronie komercyjnego molocha. Otwartą platformę tworzą m.in. Amazon, Apple, Facebook, Google, IBM, Microsoft, DeepMind. Ba, informacyjne i intelektualne wzmożenie wokół perspektywy eksplozji sztucznej inteligencji stało się na tyle intensywne, że nawet ONZ zdecydowała się ustanowić specjalną agencję, z siedzibą w Hadze, monitorującą sytuację na odcinku robotów. Obsada składać się ma na razie z dwóch osób i jednego modułu sztucznej inteligencji… To oczywiście żart – agencja ma się składać z trzech ludzkich osób. Ale żart wydaje się zasadny, bo akurat w monitorowaniu zjawisk o charakterze złożonym, nieoczywistym, wypatrywaniu subtelnych symptomów zagrożeń (nowotwór, spisek, awaria systemu), w dostrzeganiu niezauważalnych dla człowieka odstępstw od statystycznych prawidłowości AI już jest i zawsze będzie bezkonkurencyjna. Bez niej możemy sobie nie poradzić z jej kontrolowaniem.

Polityka 44.2017 (3134) z dnia 30.10.2017; Nauka; s. 62
Oryginalny tytuł tekstu: "Jak przyrządzić kawę, będąc martwym"
Więcej na ten temat
Reklama

Codzienny newsletter „Polityki”. Tylko ważne tematy

Na podany adres wysłaliśmy wiadomość potwierdzającą.
By dokończyć proces sprawdź swoją skrzynkę pocztową i kliknij zawarty w niej link.

Informacja o RODO

Polityka RODO

  • Informujemy, że administratorem danych osobowych jest Polityka Sp. z o.o. SKA z siedzibą w Warszawie 02-309, przy ul. Słupeckiej 6. Przetwarzamy Twoje dane w celu wysyłki newslettera (podstawa przetwarzania danych to konieczność przetwarzania danych w celu realizacji umowy).
  • Twoje dane będą przetwarzane do chwili ew. rezygnacji z otrzymywania newslettera, a po tym czasie mogą być przetwarzane przez okres przedawnienia ewentualnych roszczeń.
  • Podanie przez Ciebie danych jest dobrowolne, ale konieczne do tego, żeby zamówić nasz newsletter.
  • Masz prawo do żądania dostępu do swoich danych osobowych, ich sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania, a także prawo do przenoszenia swoich danych oraz wniesienia skargi do organu nadzorczego.

Czytaj także

Ja My Oni

Miłość: jedna z najważniejszych potrzeb człowieka

Czym jest miłość i czy rzeczywiście jest człowiekowi niezbędna.

Katarzyna Growiec
06.02.2018
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną