Przejdź do treści
Reklama
Reklama
Nauka

Uczniowie czarnoksiężnika

AI szantażuje, oszukuje, jest gotowa nawet zabić. Już słychać ważne sygnały ostrzegawcze

AI, będąc superinteligentna może dążyć do  realizacji celu za wszelką cenę, również kosztem ludzi. AI, będąc superinteligentna może dążyć do realizacji celu za wszelką cenę, również kosztem ludzi. Mirosław Gryń
Sztuczna inteligencja oszukuje, szantażuje, a nawet gotowa jest zabić, by zrealizować wyznaczony cel. Na razie tylko w testach. Do czego może być zdolna poza nimi?
Niepokojących wyników testów AI zebrało się już tyle, że prestiżowy tygodnik naukowy „Nature” poświęcił im niedawno obszerny artykuł.Jernej Furman/Wikipedia Niepokojących wyników testów AI zebrało się już tyle, że prestiżowy tygodnik naukowy „Nature” poświęcił im niedawno obszerny artykuł.

Nick Bostrom, znany szwedzki filozof zajmujący się problematyką AI, wydał w 2014 r. książkę „Superinteligencja. Scenariusze, strategie, zagrożenia”. Jednym z jej wątków jest problem „ucznia czarnoksiężnika”. Chodzi o sytuację, w której AI zaczyna bezwzględnie realizować wyznaczony cel, ale ludzie tracą nad nią kontrolę.

Bostrom podaje dość trywialny przykład: zadaniem algorytmu jest maksymalizacja produkcji spinaczy do papieru. To z pozoru niewinne zadanie sprowadza ogromne zagrożenie, bo AI, będąc superinteligentna (w sensie sprawności i szybkości działania, a nie podobieństwa do funkcjonowania umysłu człowieka), dąży do jego realizacji za wszelką cenę, również kosztem ludzi. Traktuje ich bowiem jako jedno z zagrożeń lub zasób potrzebny do wypełnienia misji. Scenariusz ten ilustruje ryzyko wynikające z niezrównoważonego, ślepego optymalizowania jednego jasno określonego zadania bez uwzględniania wartości i bezpieczeństwa człowieka i przyrody.

Kwestia ta zresztą już wcześniej pojawiała się w książkach czy filmach. Klasyczny przykład to oczywiście komputer HAL 9000 z „2001: Odysei kosmicznej” (nakręconej na podstawie powieści Arthura C. Clarke’a), który uznał członków załogi statku „Discovery One” za zagrożenie dla celów misji (lotu do Jowisza), więc postanowił ich po kolei eliminować. Problem ten poruszył także Stanisław Lem, w charakterystycznej dla siebie tragikomicznej formie, w opowiadaniu „Jak ocalał świat” („Bajki robotów”).

Czytaj też: Aktorka AI namieszała w Hollywood. Amatorzy mają się czego bać

Zadanie czy obsesja

Bostrom opublikował swoją książkę jeszcze przed rewolucją dużych modeli językowych (LLM), której symbolem stał się ChatGPT.

Polityka 47.2025 (3541) z dnia 19.11.2025; Nauka ProjektPulsar.pl; s. 64
Oryginalny tytuł tekstu: "Uczniowie czarnoksiężnika"
Reklama