Sztuczna inteligencja (AI) to ostatnio jedno z najbardziej emocjonujących zagadnień. Wielu komentatorów widzi w niej poważne zagrożenie – zmarły rok temu słynny kosmolog Stephen Hawking przestrzegał, że sztuczna inteligencja może się okazać największym błędem ludzkości. Z kolei zwolennicy postępu technicznego widzą w AI kolejne narzędzie niezwykle przydatne człowiekowi i milowy krok w rozwoju cywilizacji. Kto w tym sporze ma rację?
Odpowiedź nie jest prosta, ale z pewnością pomocne w wyrobieniu opinii będą dwie opublikowane ostatnio po polsku książki. Pierwszą z nich, zatytułowaną „Sztuczna inteligencja. Co każdy powinien wiedzieć” (przekł. Sebastian Szymański), napisał znany amerykański informatyk i jeden ze współtwórców technologii tabletowej Jerry Kaplan. To pozycja zwięzła, przejrzysta i jak na stopień skomplikowania tytułowego zagadnienia napisana przystępnym językiem.
Drugą, obszerniejszą i o bardziej filozoficznych ambicjach jest publikacja świetnego amerykańskiego fizyka Maxa Tegmarka „Życie 3.0. Człowiek w erze sztucznej inteligencji” (przekł. Tomasz Krzysztoń). Z książek tych można się wiele dowiedzieć o historii prac nad AI, ich stanie obecnym oraz perspektywach rozwoju. Obie też poruszają problem zagrożeń i ewentualnej świadomości AI. I ta właśnie kwestia z filozoficznego i etycznego punktu widzenia wydaje się najbardziej doniosła.
Pojęcie „sztuczna inteligencja” zostało wprowadzone w 1955 r. przez młodego amerykańskiego matematyka Johna McCarthy’ego i – jak się z czasem okazało – był to strzał w dziesiątkę. Ale nie dlatego, że nazwa jest szczególnie adekwatna. Przeciwnie – jest ona raczej bałamutna. Była za to naprawdę trafna w sensie marketingowym – idealnie wpasowywała się w ludzkie oczekiwania i marzenie, że zbudujemy sobie „wszechwiedzącego” partnera, odpowiednika Boga lub mądrych istot pozaziemskich, który wyjaśni nam „co i jak”.