AI, twój terapeuta
AI, twój terapeuta. Czy to się może udać? Sprawdziłam, mam wątpliwości
W ramach eksperymentu przeprowadziłam niedawno krótką rozmowę z jednym z popularnych w USA chatbotów terapeutycznych. Tego typu wynalazki są intensywnie rozwijane i coraz częściej reklamowane jako doskonałe narzędzie do wspierania zdrowia psychicznego, a nawet jako „twój terapeuta”. Odpowiedziawszy na kilka wstępnych pytań, przedstawiłam „mojemu terapeucie” swój problem: przede mną trudny dzień, w związku z czym przeżywam niepokój. Po kilku słowach sugerujących zrozumienie i empatię chatbot naprędce wyciągnął wniosek, że z pewnością doświadczam takich stanów notorycznie. Nic takiego mu nie zgłaszałam, próbowałam protestować, ale przestał słuchać i dalej już tylko uparcie powtarzał swoje. Tak jakby wcale nie rozumiał, co do niego mówię.
Przy tej okazji przypomniałam sobie jedno z potencjalnie najbardziej frustrujących doświadczeń w interakcjach z ludźmi: sytuację, kiedy ktoś twierdzi, że wie lepiej od nas, co czujemy. W przypadku nowoczesnej technologii łatwo dać się jednak uwieść myśli, że skoro mamy do czynienia z narzędziem, które rozpoznaje problem na podstawie skrupulatnej analizy danych, to może faktycznie wychwytuje coś, czego sami nie dostrzegamy?
Problemy związane z korzystaniem z AI są liczne, weźmy choćby kwestię prywatności danych. Zarazem entuzjaści tych narzędzi liczą na to, że przyniosą ulgę w cierpieniu wielu osobom niewielkim kosztem. Pomijają przy okazji rzecz fundamentalną – że zdrowie psychiczne w dużej mierze określane jest przez to, jakie mamy relacje z innymi. W przypadku chatbotów pojawia się więc pytanie o to, z kim czy raczej z czym tworzymy relację i czy faktycznie jest to relacja? „Wirtualnych terapeutów” nie możemy traktować wyłącznie jako narzędzi, bo nie są tym samym co książka psychoedukacyjna.