Geoff Lewis, znany amerykański inwestor, w połowie 2025 r. zamieścił w internecie niepokojącą wypowiedź. Mówił o tajemniczym „niewidzialnym, ale działającym systemie”, który go prześladuje. Innych ludzi też, co miałoby prowadzić do zrywania relacji, niszczenia karier i już kosztowało życie 12 osób.
Lewis używał zagadkowych terminów „rekursja” i „lustra”. Ponieważ jest znaną postacią w USA, jego wypowiedzi wzbudziły spore zainteresowanie, a wielu komentatorów szybko połączyło niepokojący stan psychiczny z intensywnym korzystaniem przez Lewisa z ChatGPT. Publikował bowiem zrzuty ekranu ze swoich ezoterycznych rozmów z chatbotem. Dlatego pojawiły się przypuszczenia, że model AI, wytrenowany m.in. na fikcyjnych horrorach z internetu, mógł wzmocnić lęki Lewisa, odpowiadając w stylu, który pasował do jego urojeń – pisał niedawno amerykański portal naukowo-technologiczny Futurism. W dodatku, jak na ironię, fundusz Bedrock Capital, którym Lewis współrządzi, jest jednym z głównych inwestorów OpenAI, czyli twórcy ChatGPT.
Chatboty terapeutyczne
Oczywiście jego przypadek jest jednostkowy, aczkolwiek coraz częściej mówi się o problemie wpływu na ludzką psychikę interakcji z dużymi modelami językowymi (LLM), takimi jak ChatGPT. Użytkownicy Reddita (to ogromny zbiór internetowych forów dyskusyjnych) ukuli nawet termin „psychoza wywołana przez ChatGPT”.
Dlatego zjawiskiem tym postanowiła zająć się grupa naukowców kierowana przez badaczy ze Stanford University. Chcieli sprawdzić, czy LLM-y mogą bezpiecznie wejść w rolę psychoterapeutów, a wyniki swoich eksperymentów przedstawili w czerwcu na jednej z konferencji naukowych.