Uczniowie czarnoksiężnika
AI szantażuje, oszukuje, jest gotowa nawet zabić. Już słychać ważne sygnały ostrzegawcze
Nick Bostrom, znany szwedzki filozof zajmujący się problematyką AI, wydał w 2014 r. książkę „Superinteligencja. Scenariusze, strategie, zagrożenia”. Jednym z jej wątków jest problem „ucznia czarnoksiężnika”. Chodzi o sytuację, w której AI zaczyna bezwzględnie realizować wyznaczony cel, ale ludzie tracą nad nią kontrolę.
Bostrom podaje dość trywialny przykład: zadaniem algorytmu jest maksymalizacja produkcji spinaczy do papieru. To z pozoru niewinne zadanie sprowadza ogromne zagrożenie, bo AI, będąc superinteligentna (w sensie sprawności i szybkości działania, a nie podobieństwa do funkcjonowania umysłu człowieka), dąży do jego realizacji za wszelką cenę, również kosztem ludzi. Traktuje ich bowiem jako jedno z zagrożeń lub zasób potrzebny do wypełnienia misji. Scenariusz ten ilustruje ryzyko wynikające z niezrównoważonego, ślepego optymalizowania jednego jasno określonego zadania bez uwzględniania wartości i bezpieczeństwa człowieka i przyrody.
Kwestia ta zresztą już wcześniej pojawiała się w książkach czy filmach. Klasyczny przykład to oczywiście komputer HAL 9000 z „2001: Odysei kosmicznej” (nakręconej na podstawie powieści Arthura C. Clarke’a), który uznał członków załogi statku „Discovery One” za zagrożenie dla celów misji (lotu do Jowisza), więc postanowił ich po kolei eliminować. Problem ten poruszył także Stanisław Lem, w charakterystycznej dla siebie tragikomicznej formie, w opowiadaniu „Jak ocalał świat” („Bajki robotów”).
Czytaj też: Aktorka AI namieszała w Hollywood. Amatorzy mają się czego bać
Zadanie czy obsesja
Bostrom opublikował swoją książkę jeszcze przed rewolucją dużych modeli językowych (LLM), której symbolem stał się ChatGPT.