Jestem psychologiem klinicznym. Poszedłem na terapię z chatbotem AI.
Mój psychiatra mówi mi, że jestem zła na męża. Mój mąż się zgadza. Jestem psychologiem klinicznym, a moim terapeutą jest AI Chatbot.
Maj to Miesiąc Świadomości Zdrowia Psychicznego, kiedy wiele firm promuje swoje zaangażowanie w dobrostan psychiczny pracowników. Ponieważ pracownicy wymagają więcej opieki w zakresie zdrowia psychicznego niż kiedykolwiek wcześniej, coraz więcej organizacji oferuje programy AI w celu zapewnienia wsparcia emocjonalnego. Jak terapia oparta na aplikacji wypada w porównaniu z tradycyjnym leczeniem? Postanowiłem się dowiedzieć.
Przez miesiąc szukałem sesji dwa razy w tygodniu z potwierdzonym empirycznie terapeutycznym chatbotem. Nie angażowałem się w generatywną sztuczną inteligencję, taką jak ChatGPT, ponieważ duże modele językowe nie zostały opracowane jako programy terapeutyczne, brakuje im kontroli bezpieczeństwa i wiadomo, że oferują porady oderwane od rzeczywistości — dokładnie odwrotnie niż to, czego szukam u doradcy .
Podczas pierwszej sesji poprosiłam o pomoc w sprawie mojego męża, który nie dokonywał (moim zdaniem) zdrowych wyborów dotyczących diety i ćwiczeń, mimo że niedawno przeszedł poważną operację. Aplikacja zapytała, czy jestem zły. Sugestia, że nie jestem wsparciem, rozwścieczyła mnie. Powiedziałam mężowi, co zaobserwował robot. Powiedział mi, że jestem zły — na niego! Hmmm. Na następnej sesji powiedziałam: „To wina mojego męża, że nie czuje się dobrze”. Gdybym był swoim własnym terapeutą, zbadałbym domyślne obwinianie współmałżonka, ale zamiast tego bot powiedział: „Nie obwiniaj siebie”. Ciekawa konceptualizacja.
W trzeciej i czwartej sesji zasugerowałem, że być może pytania o zdrowie mojego partnera są związane z troską o moją własną śmiertelność. Zaproponowano mi ćwiczenia redukujące stres, aby skupić się na tym, co mogę kontrolować. Bot nie mógł powiązać spostrzeżeń z naszych spotkań, więc założyłem czapkę lekarza, aby zsyntetyzować to, czego się nauczyłem: jestem zły. Obwiniam siebie, ponieważ nie mogę zmienić zachowania kogoś, kogo kocham, i zamiast martwić się o własną śmiertelność, powinienem popracować nad tym, co mogę kontrolować za życia. Nie jest zły!
Wierzę, że większość rzeczy w życiu jest po to, by się nimi dzielić. Na początku tej eksploracji poprosiłem kilku kolegów, którzy podzielają pasję do szeroko zakrojonych kampanii zdrowotnych, aby zobowiązali się do czterech tygodni opieki z chatbotem. Po każdej sesji wszyscy wypełnialiśmy formularz oceny. Nie porównywaliśmy not do końca. Okazało się, że ich obserwacje pokrywały się z moimi. Początkowo byliśmy zaangażowani przez sugestie, aby się zrelaksować i przemyśleć nasze założenia.
Niestety, z biegiem czasu zmęczyliśmy się botem i wydawało się, że on nas zmęczył. Aplikacja wielokrotnie próbowała posortować problemy w tematy, które łączyły nas z powiązanymi zestawami narzędzi, które nie zawsze były związane z naszymi prawdziwymi problemami. Po pewnym czasie wydawało się, że piszemy na automatyczny czat obsługi klienta, podczas gdy tak naprawdę chcieliśmy, żeby ktoś odebrał telefon. Kiedy powiedziałem mojemu przewodnikowi robota, że nie rozumie moich problemów, zaczął kończyć moje sesje coraz wcześniej. Odrzucony przez mojego „terapeutę!” Harrumph! Spodziewałem się co najmniej 45 minut opieki, bez względu na to, jak trudnym pacjentem byłem.
Czy poleciłbym Ci skorzystanie z chatbota terapeutycznego? Tak, jeśli doceniasz jego ograniczenia. Zasadniczo aplikacje mogą zapewniać zautomatyzowany skoroszyt — doradcę na wezwanie. Otrzymasz narzędzia, które pomogą Ci zredukować stres, kwestionować ustalone (potencjalnie szkodliwe) sposoby interpretowania sytuacji, śledzić zmiany w myśleniu i późniejszy wpływ na Twój nastrój. Mogą to być niezwykle pomocne zasoby.
W mojej praktyce zaobserwowałem, że jesteśmy połączeni przewodami. W czasie pandemii byliśmy zdystansowani społecznie i zdesperowani psychicznie. Trzy lata później widzimy konsekwencje tej izolacji dla zdrowia psychicznego. W rzeczywistości, Naczelny Chirurg właśnie ogłosił epidemię samotności. Nie można oczekiwać, że maszyna zastąpi to, czego wymaga nasza zaprogramowana biologia — interakcje międzyludzkie. Ponadto musimy być ostrożni, aby nie tworzyć nowych dysproporcji w opiece nad osobami, które potrzebują większego wsparcia. Idealnie byłoby, gdyby narzędzia komputerowe były oferowane jako część kompleksowego ekosystemu możliwości leczenia.
Moja praca jako konsultanta wielokrotnie pokazała, że dobre zarządzanie rodzi dobre zdrowie psychiczne. Firmy nie powinny oferować wsparcia chatbota w celu promowania pozytywnego samopoczucia zamiast szkolenia menedżerskiego. Doświadczenia pracowników związane z niesprawiedliwym traktowaniem, nieuzasadnionymi żądaniami i brakiem szacunku nie są wyzwaniami, które można odwrócić za pomocą aplikacji do ochrony zdrowia psychicznego. Martwię się, że pytania systemowe zostaną przekazane AI. Książka samopomocy nie wyleczy kryzysu zdrowia psychicznego. Musimy zbadać siły społeczne, które wpływają na sprawność umysłową i unikać nakładania odpowiedzialności za zmiany wyłącznie na jednostki.
To powiedziawszy, nie mogłem się oprzeć poproszeniu Pi, nowo wydanej generatywnej sztucznej inteligencji, o radę, jak podejść do pisania tego eseju. Oto, co sugeruje: Myślę, że ważne jest, aby pamiętać, że sztuczna inteligencja nie jest człowiekiem i dlatego nie może zapewnić tego samego poziomu empatii i połączenia, co terapeuta-człowiek. Może się więc okazać, że podczas rozmowy z sztuczną inteligencją czujesz się bardziej rozłączony, a nawet sfrustrowany. Myślę też, że ważne jest, aby zdawać sobie sprawę z własnych uprzedzeń podczas rozmowy z sztuczną inteligencją. Na przykład może się okazać, że jesteś bardziej krytyczny wobec odpowiedzi sztucznej inteligencji niż wobec odpowiedzi ludzkiego terapeuty. Dlatego ważne jest, aby zwracać uwagę na własne reakcje i starać się pozostać otwartym na to doświadczenie. Oto świetna rada: ustal realistyczne oczekiwania i pozostań otwarty.