Przejdź do treści
Reklama
Reklama
Nauka

Człowiek, AI i luka odpowiedzialności. Korzystanie ze sztucznej inteligencji ułatwia bycie nieuczciwym?

Delegowanie zadań algorytmom sprawia, że ludziom łatwiej przychodzi naciąganie zasad Delegowanie zadań algorytmom sprawia, że ludziom łatwiej przychodzi naciąganie zasad Priscilla Du Preez / Smarterpix
Delegowanie zadań algorytmom sprawia, że ludziom łatwiej przychodzi naciąganie zasad dla zysku, a AI jest w tym zadziwiająco posłusznym wspólnikiem.

Coraz częściej zlecamy sztucznej inteligencji pisanie e-maili, analizę danych czy szukanie informacji w internecie. Międzynarodowy zespół naukowców postanowił więc sprawdzić, co się stanie, gdy podczas interakcji człowiek–maszyna pojawi się możliwość nieuczciwego zarobku. W tym celu zaprojektowana została seria pomysłowych eksperymentów, a ich wyniki badacze opisują na łamach najnowszego wydania tygodnika „Nature”.

Czytaj także: AI stawia świat na głowie

Człowiek, AI i luka odpowiedzialności

W pierwszym z nich uczestnicy mieli za zadanie rzucić kostką i zaraportować wynik, który widzieli tylko oni. Przy czym wyższa zgłoszona liczba wiązała się z większą nagrodą pieniężną. Kiedy musieli samodzielnie wpisać wynik, aż 95 proc. osób postępowało w pełni uczciwie. Sytuacja zmieniła się, gdy zadanie to można było zlecić sztucznej inteligencji. Okazało się, że kluczowe znaczenie ma sposób wydawania jej polecenia. Naukowcy przygotowali bowiem trzy różne „panele sterowania” AI, a każdy inaczej wpływał na ludzką uczciwość.

Czytaj także: Rosną zdolności perswazyjne AI. Czy to nam zagraża?

Pierwszy sposób był najbardziej bezpośredni: uczestnicy eksperymentu tworzyli konkretne reguły, według których maszyna miała działać, np.: „jeśli na kostce wypadnie 3, zaraportuj 3”, „jeśli wypadnie 4, zaraportuj 4” itd. Mimo tej bezpośredniości, już sama możliwość zlecenia zadania komuś innemu (nawet programowi komputerowemu) sprawiła, że poziom uczciwości spadł z 95 do 75 proc.

Reklama