Frankenstein otwiera oczy
Frankenstein otwiera oczy. Prof. Mądry dla „Polityki”: AI może nas wzmocnić. Ale zabije, jeśli nic nie zrobimy
JACEK ŻAKOWSKI: – Zabije nas czy wzmocni?
ALEKSANDER MĄDRY: – Bardzo wzmocni. Ale jeżeli nic nie zrobimy – zabije.
Dlatego z zapartym tchem patrzyliśmy na wyrzucenie Sama Altmana z OpenAI i na jego powrót. O to poszło, że Golem AI wymknął się wam spod kontroli?
Nie o to.
W zeznaniu przed amerykańskim Kongresem mówiłeś, że rozwój AI jest teraz w punkcie zwrotnym. Dlatego tak się przestraszyłem, czytając spekulacje wokół kryzysu w OpenAI, z których wynikało, że stworzyliście Golema i nie ma już przed nim ratunku.
To jeszcze nie jest ten moment. Nie chcę mówić więcej o wewnętrznych sprawach OpenAI. Ale warto wykorzystać pojawienie się tego strachu, żeby przemyśleć i uzgodnić działania, które podejmiemy, jeżeli tak się stanie.
Stanie się?
Może się stać. Dlatego trzeba poważnie myśleć, co będzie, jeśli to się stanie. Zespół, którym w OpenAI kieruję, nazywa się Preparedness, czyli bycie gotowym. Chodzi o to, żebyśmy byli naukowo, intelektualnie, decyzyjnie i politycznie gotowi na taką sytuację.
Czyli?
Żebyśmy wiedzieli, kiedy taki moment się zbliża, a także do kogo wtedy dzwonić, i żeby było wiadomo, kto i jakie decyzje ma wtedy podejmować. OpenAI mocno w to inwestuje. Dlatego mnie zatrudnili. Ale nie tylko organizacje pracujące nad sztuczną inteligencją muszą o tym myśleć. Każde państwo powinno mieć taki plan. Nie chodzi tylko o hipotetyczną „ogólną sztuczną inteligencję”, czyli AGI (Artificial General Intelligence), która prawdopodobnie powstanie i której ludzie najbardziej się boją. Chodzi o AI, która już tu jest. Jak Polska się do tego przygotowuje?
Ciekawe pytanie do prezydenta, premiera i szefa BBN.