Czy sztuczna inteligencja ubezwłasnowolni ludzi?
Groźny umysł
Po powstaniu sztucznej inteligencji człowiek może podzielić los goryli, których życie zależy niemal wyłącznie od woli naszego gatunku.
Sztuczna superinteligencja mogłaby uznać, że ludzkość stanowi rodzaj surowca do pozyskania.
Mike Agliolo/EAST NEWS

Sztuczna superinteligencja mogłaby uznać, że ludzkość stanowi rodzaj surowca do pozyskania.

Nick Bostrom, szwedzki filozof i ważna postać współczesnego transhumanizmu, czyli nurtu głoszącego potrzebę technologicznego udoskonalania człowieka, napisał książkę przedstawiającą ogrom problemów oraz zagrożeń związanych z uruchomieniem w przyszłości superinteligencji (SI). Jak pisze w jej wstępie, jest to „prawdopodobnie najważniejsze i najbardziej onieśmielające wyzwanie, z jakim kiedykolwiek mierzyła się ludzkość. I niezależnie od tego, czy nam się powiedzie czy nie – jest to prawdopodobnie ostatnie wyzwanie, z którym przyjdzie nam się kiedykolwiek zmierzyć”. Dlaczego? Ano dlatego, trzymając się narracji autora, że po uruchomieniu SI los człowieka nie będzie już pozostawał w jego rękach, podobnie jak los współczesnych goryli nie zależy od nich, ale od ludzi.

Duża część jego dzieła dotyczy bowiem motywu „ucznia czarnoksiężnika” albo „dżina z butelki” – co by się stało, gdyby ewentualna SI opacznie pojęła wyznaczone jej cele.

Pełną treść tego i wszystkich innych artykułów z POLITYKI oraz wydań specjalnych otrzymasz wykupując dostęp do Polityki Cyfrowej.

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj