Dżihad przeciw maszynom
Dżihad przeciw maszynom. Czy ograniczenie sztucznej inteligencji jest jeszcze możliwe?
W „Diunie” Franka Herberta, niedawno z rozmachem zekranizowanej przez Denisa Villeneuve’a, pojawia się mgliste wspomnienie o Butleriańskim Dżihadzie. Bez niego trudno zrozumieć świat Herberta. Akcja książki rozgrywa się bowiem w odległej przyszłości, w której nie ma myślących maszyn. A to dlatego, że wiele lat wcześniej przejęły one władzę nad ludźmi, uzależniając ich stopniowo od siebie. Ci się jednak zbuntowali i w stuletniej wojnie, zwanej właśnie Butleriańskim Dżihadem, zniszczyli wszystkie myślące maszyny. Przyrzekli też sobie, że już nigdy nie stworzą nowych.
Herbert użył słowa dżihad świadomie, bo w tej wojnie nie chodziło tylko o zwykłą dominację. Dla jego ludzkich bohaterów był to fundamentalny spór o definicję człowieczeństwa i o przyszłość ludzkości. Wszystko to brzmi niebezpiecznie znajomo w obliczu obecnych debat nad przyszłością sztucznej inteligencji. Czy zatem stoimy u progu nowego dżihadu?
1.
Kilka tygodni temu grupa przedsiębiorców i ekspertów związanych ze sztuczną inteligencją (artificial intelligence, AI) zaalarmowała w publicznym liście, że rozwijana przez nich technologia stanowi „egzystencjalne zagrożenie dla ludzkości”, porównywalne z pandemią i wojnami nuklearnymi.
Alarm poparli m.in. Sam Altman, szef OpenAI, twórcy ChatGPT, najpopularniejszej dziś aplikacji-interfejsu dla AI, i Demis Hassabis, który stoi na czele działu AI w Google. Podpisali się pod nim również Geoffrey Hinton i Yoshua Bengio, laureaci Nagrody Turnera, uważani za ojców chrzestnych współczesnej AI. Hinton w maju zrezygnował z pracy dla Google – jak sam przyznał: żeby móc krytykować. „Niewielu ludzi wierzyło, że to [AI – przyp. red.] może kiedyś stać się mądrzejsze od ludzi – napisał Hinton.