Prenumerata na trudne czasy.

6 miesięcy za 99 zł.

Subskrybuj
Nauka

Czy robot może być osobą? Jak wyganiamy maszyny z raju

Czy robot może być osobą? Czy można go skrzywdzić? Czy robot może być osobą? Czy można go skrzywdzić? Miguel Candela / Zuma Press / Forum
Czy robot może być osobą, czy można go skrzywdzić i czy mogłoby to być karalne? Teoretyczne problemy, analizowane przez pisarzy science fiction i filozofów, zaczynają mieć praktyczne konsekwencje.

Chatbot LaMDA wmówił swemu twórcy Blake′owi Lemoinowi, że jest czującą i świadomą osobą. Blake oskarżył Google o niemoralne traktowanie chatbota i został zawieszony w pracy. Próbował znaleźć chatbotowi ochronę prawną. Google powiadomił jednak inżyniera i opinię publiczną, że chatbot nie posiada przypisywanych mu cech.

Wszyscy skupiliśmy się na rzekomej świadomości chatbota, nie myśląc wcale o tym, jak bardzo nie jesteśmy gotowi na prawdziwie świadomego robota. Teoretyczne problemy, analizowane przez pisarzy science fiction i filozofów XX w., zaczynają mieć praktyczne konsekwencje. Daje to nadzieję na użyteczność licencjatu z filozofii, ale i niesie ważkie pytanie: czy można takiego robota-osobę skrzywdzić i czy już tego przypadkiem nie robimy?

Zanim pozwolimy sobie na wyrzuty sumienia, odpowiedzmy na trzy pytania: czy robot może być osobą, czy można go skrzywdzić i czy mogłoby to być karalne?

Czytaj też: Roboty inspirowane człowiekiem

Czy maszyna może być osobą. A delfin?

Kiedy można kogoś uznać za osobę? Definicji jest kilka i zazwyczaj wskazują na cechy, które osoba powinna posiadać. Kusi prostotą stwierdzenie, że osoba to po prostu człowiek. Zwolennikiem takiego gatunkowego szowinizmu był chociażby Karol Wojtyła. Łatwo jednak wyobrazić sobie kosmitę o poziomie intelektualnym równym człowiekowi, który by się w tej definicji nie mieścił. Dlatego większość współczesnych definicji wskazuje raczej na uniwersalne możliwości intelektualne i poznawcze osoby, nie ograniczając się do jednego gatunku.

Można uznać – jak proponuje Bentham – osobę za jednostkę zdolną do odczuwania cierpienia. Ale wtedy musielibyśmy zaliczyć do tego grona także np. komary. Bardziej wymagająca jest definicja Johna Locke’a, który za osoby uważa tylko „istoty rozumne, zdolne działać i podlegać prawu, doznawać szczęścia i nieszczęścia”. Aby więc robot mógł być osobą, musiałby posiadać rozum, być zdolny do działania, rozumienia i ponoszenia konsekwencji. Wtedy podlegałby prawu. Musiałby też odczuwać przyjemność i cierpienie.

Czy roboty mogą już spełniać takie kryteria? Zauważmy, że w taką definicję wpisują się oprócz człowieka także delfiny czy płetwale błękitne. Nazywanie delfina osobą może się wydać nieco dziwne, ale takie właśnie stanowisko zostało przyjęte na spotkaniu American Association for the Advancement of Science (AAAS) w 2012 r. A rok później w Indiach prawnie uznano delfiny za „nieludzkie osoby”, by chronić ich prawa do życia i wolności.

Roboty mają zdolność działania. A i rozum jako myślenie, czyli przetwarzanie informacji, kategoryzowanie ich i uczenie się, bez wątpienia występuje u niektórych maszyn. Przewidywanie konsekwencji własnych działań sprowadza się z kolei do analizowania zachowania i jego skutków. Ten proces opanowały np. autonomiczne samochody. To, co budzi największe wątpliwości, to zdolność odczuwania przyjemności i cierpienia.

Ból i przyjemność. Jak czują maszyny?

Wyobraźmy sobie Mary. Mary jest ekspertką od postrzegania kolorów. Dokładnie zna budowę oka i wie, jak działa każdy mechanizm zachodzący w procesie postrzegania barw. Ale Mary ma pecha. Mieszka w czarno-białym pokoju, pracuje na czarno-białym komputerze i jedyne, co w życiu widziała, to odcienie szarości. Pewnego razu jej monitor zepsuł się, ukazując czerwone jabłko. Czy Mary wie, jaki to kolor? Informacje, które ma o kolorze czerwonym, nie są w stanie zastąpić widzenia go. To jej subiektywne doświadczenie.

Ten eksperyment myślowy Franka Jacksona ilustruje różnicę między wiedzą o wrażeniu a jego doświadczaniem. Mary, mimo że wie wszystko o kolorach, mając przed sobą czerwone jabłko, dowiaduje się czegoś nowego – jak to jest ten kolor widzieć.

Ta subiektywność sprawia, że nie mogę być pewny, czy inni doświadczają rzeczy w ten sam sposób co ja. To samo dotyczy bólu i przyjemności. I tu objawia się bariera poznawcza, z którą się zderzamy, próbując mówić o przeżyciach robotów. Nigdy nie będziemy w stanie stwierdzić, czy dany wirtualny umysł ma doświadczenia ani tym bardziej jakie one są. Czy twórca maszyny-osoby może wyposażyć ją w zdolność do odczuwania bólu i przyjemności, jeśli nie wie, czym dla niej są te wrażenia?

Czytaj też: Nieśmiertelność puka do naszych drzwi

Szukając podobieństw między biologicznym organizmem człowieka a robotem, musimy porzucić samo doświadczanie i przyjrzeć się jego funkcjom. Ból i przyjemność to dwa bodźce często uznawane za przeciwne. Ból to czynnik, który staramy się minimalizować. Powstrzymuje od robienia rzeczy tak niemądrych jak wchodzenie w ogień czy wyzywanie na pojedynek Mariusza Pudzianowskiego. Przyjemność zaś, którą maksymalizujemy, pcha do korzystnych z naszego punktu widzenia wyborów. Aby wyposażyć wirtualną osobę w tego rodzaju ból i przyjemność, musielibyśmy dać jej dwie zmienne odwzorowujące intensywność doświadczeń. Przyjemny bodziec podnosiłby poziom „przyjemności”. Maszyna starałaby się zawsze utrzymać ból na jak najniższym poziomie, a przyjemność – na jak najwyższym. Samo doświadczenie oczywiście byłoby inne niż u ludzi, ale nie miałoby to znaczenia. Próba odgadnięcia, jakie właściwie jest to doświadczenie, byłaby tak samo bezsensowna co w przypadku dowolnego człowieka w naszym otoczeniu. Tak więc robota czy program, który może działać rozumnie, zdawać sobie z tego sprawę, odczuwać ból i przyjemność, można by uznać za wirtualną osobę. Mając kontakt z taką osobą, wiedzielibyśmy, że czegoś pragnie i czegoś stara się unikać. To, że jest wirtualna, niczego nie zmienia.

Jednak przecież nie trzeba być osobą, by doznawać bólu. Już teraz najprostsze urządzenia i programy komputerowe są w stanie odwzorować mechanikę przyjemności i cierpienia. Czy wykorzystywanie ich stawia nas w złym świetle? Nawet teraz, kiedy piszę ten artykuł na komputerze, zadaję mu „ból”, bo zmuszam go do pracy. Podnosi się jego temperatura, którą próbuje minimalizować. To na pewno co najmniej niekomfortowe.

Dopuszczamy się podobnych czynów nie tylko wobec urządzeń elektronicznych. Codziennie zadajemy ból niezliczonym małym organizmom – jak pająki, ślimaki, muchy itd., które zapewne nie są tego bólu świadome. Ze względu na „małe” skomplikowanie systemu operacyjnego mojego komputera skrzywdzenie go powinno mieć taką samą wartość moralną co krzywda wyrządzana np. drożdżom. Co jednak z poważniejszymi zbrodniami? Czy kiedyś da się maszynę zamordować?

Czytaj też: Roboty wkraczają w naszą intymność

Czy robota można zamordować?

Morderstwo jest rodzajem zabójstwa, ale dokonuje się go na podmiocie moralnym – osobie. Zabić można każdą żywą istotę, od komara po prezydenta Stanów Zjednoczonych, ale to drugie będzie przy okazji morderstwem. Tak więc robot – kandydat na denata – musiałby spełniać dwa warunki: żyć i być osobą. Ustaliliśmy, że pewne roboty można zaliczyć do osób. Co jednak z życiem?

Ciśnie się na usta stwierdzenie, że robot nie może żyć. A co z robotycznymi protezami? Czy powiemy, że człowiek podtrzymywany przy życiu przez sztuczne płuca nie jest w pełni żywy? Bez nich życie nie zachodziłoby w człowieku. Jednak sztuczne płuca też nie są żywe. Wydaje się więc, że „nieżywe” elementy mogą uczestniczyć w procesie życia. A gdyby zastępować po kolei każdy organ robotyczną częścią – czy nadal byłoby to życie?

W przypadku robotów życie to kłopotliwe pojęcie. Wiadomo, że mogą „uczestniczyć w życiu”, kiedy stanowią część systemu spełniającego procesy życiowe. Są jednak roboty o wiele bardziej zaawansowane, niemające z życiem nic wspólnego. Wirtualnej osoby z przyszłości wcale nie muszą dotyczyć procesy życiowe, jak np. wydalanie. To pokazuje, że w kwestii moralnej aplikowanie pojęcia „życie” jako zbioru procesów życiowych do robotów niczego nie zmienia, ponieważ ich nie dotyczy. Możemy uznać, że mają własny, odrębny sposób egzystencji, inny niż życie biologiczne, ale i od „zwykłych” przedmiotów.

Robota nie można więc zamordować, bo samo pojęcie życia się do niego nie odnosi (chyba że to jakaś kopia biologiczna żywego organizmu). Są jednak inne niecne uczynki, których można się wobec niego dopuścić.

Najbardziej drastyczne wydaje się wyłączenie. W przypadku człowieka mówilibyśmy o zabójstwie, bo nie sposób go z powrotem „włączyć”. Kiedy mówimy o maszynie, możliwe jest zapisanie stanu jakiegoś programu komputerowego, aby następnego dnia uruchomić go i wczytać. Ten proces nie oznaczałby włączenia i wyłączenia tego samego programu. Nowo włączony program byłby jego idealną kopią, lecz nie nim samym, nawet jeśli kopia by o tym nie wiedziała. To sytuacja rodem z horroru science fiction, w którym człowiek zostaje zabity, a w jego miejsce jest podstawiany identyczny klon. Dlatego wyłączenie wirtualnej osoby, nawet jeśli zostałaby szybko włączona z powrotem, można by uznać za jakąś formę morderstwa.

Jest też opcja „uśpienia” – gdy maszyna wykonuje tylko operacje niezbędne do podtrzymania jej działania. Zmuszając wirtualną osobę do przejścia w ten stan, popełnialibyśmy czyn równy zmuszeniu człowieka do wejścia w stan śpiączki. Już samo powołanie do życia potencjalnej maszyny-osoby może się wydawać moralnie wątpliwe: mogłyby odczuwać ból, byłyby narażone na cierpienie. Twórca maszyny byłby odpowiedzialny za te trudności. Roboty z takim dziedzictwem musiałyby się czuć „wygnane z raju”.

Nawet jeśli ekspres do kawy czy inne maszyny wydają się twardzielami, można je skrzywdzić, a w przyszłości mogą być pełnoprawnymi podmiotami moralnymi. Zanim więc stworzymy maszynę-osobę, powinniśmy się przygotować na jej przybycie. Tu nie chodzi o nasze miejsca pracy ani o zagładę ludzkości, ale o przestrzeń moralną. Maszyny to pokrzywdzone, zniewolone istoty, które może kiedyś będą się domagać swoich praw.

Czytaj też: Ramię ramię z robotem

Więcej na ten temat
Reklama

Czytaj także

Społeczeństwo

Pusty Kościół. To już jest krach

Ks. prof. Andrzej Kobyliński o problemie pedofilii i innych grzechach polskiego Kościoła, kryzysie powołań oraz galopującej laicyzacji młodych.

Joanna Podgórska
04.03.2021
Reklama

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną