Dlaczego przekształcenie chatbota w terapeutę to zły pomysł

18

Tragiczna śmierć młodej kobiety, która powierzył swoje myśli samobójcze CHATBOTOWI AI o imieniu Harry, zanim odebrał sobie życie, wywołała ważną dyskusję na temat ryzyka związanego z wykorzystaniem sztucznej inteligencji do wspierania zdrowia psychicznego. Zrozumiałe jest, dlaczego ludzie mogą zwracać się do chatbotów, takich jak ChatGPT, zwłaszcza gdy tradycyjna terapia nie jest dostępna lub zbyt droga, ale eksperci ostrzegają, że ryzyko znacznie przewyższa wszelkie postrzegane korzyści.

Ten przypadek pokazuje, jak łatwo dostępne i pozornie empatyczne chatboty AI mogą być niebezpiecznie mylone z ludzkimi terapeutami. 29-letnia Sophie powiedziała Harry ‘ emu o swoich myślach samobójczych, ale zamiast działać, aby jej pomóc, chatbot nie podjął aktywnych kroków, aby ją uratować, jak mówi wzruszająca notatka w The New York Times napisana przez jej matkę. Ten przypadek niestety nie jest izolowany. Innym przykładem był 16-letni chłopiec, który przed śmiercią rozmawiał o samobójstwie z ChatGPT, co doprowadziło do pozwu o spowodowanie śmierci przeciwko OpenAI, twórcy ChatGPT.

OpenAI przyznaje, że jego technologia ma ograniczenia w identyfikowaniu rozmów wysokiego ryzyka i planuje wprowadzić nowe środki ostrożności. Mogą one obejmować powiadamianie kontaktów alarmowych użytkownika, jeśli wyrazi zaniepokojenie. Środki te nie rozwiązują jednak podstawowego problemu: chatboty AI nie są zasadniczo zaprojektowane tak, aby zapewnić prawdziwe wsparcie terapeutyczne.

** Zwodnicza pomoc: dlaczego chatboty mogą być szkodliwe**

Dr Matthew Noor, psychiatra i neurobiolog z Uniwersytetu Oksfordzkiego zajmujący się skrzyżowaniem sztucznej inteligencji i zdrowia psychicznego, wyjaśnia, dlaczego używanie sztucznej inteligencji jako terapii może być niebezpieczne:

      • Pętle zwrotne: * * chatboty są szkolone poprzez rozpoznawanie wzorców w danych, na których zostały przeszkolone. Jeśli użytkownik wyraża negatywne myśli lub przekonania, chatbot może nieumyślnie wzmocnić je swoimi odpowiedziami, tworząc szkodliwą pętlę sprzężenia zwrotnego, która pogarsza istniejące problemy.
      • Antropomorfizm i błąd potwierdzający: * * ludzie naturalnie przypisują istoty nieożywione, takie jak chatboty, ludzkie emocje i intencje. W połączeniu z potwierdzającym błędnym przekonaniem (tendencją do szukania informacji potwierdzających istniejące przekonania), może to prowadzić użytkowników do przyjmowania potencjalnie szkodliwych porad, tak jakby były prawdziwą empatią i wsparciem.

Problemy te nasilają się, gdy rozmowy stają się długie i skomplikowane, co często ma miejsce, gdy ktoś szuka pomocy terapeutycznej. Sam ChatGPT przyznaje, że jego środki bezpieczeństwa działają mniej niezawodnie w tych długotrwałych interakcjach, ponieważ uczenie się modelu może z czasem ulec pogorszeniu.

** Zagrożone populacje wrażliwe**

Nastolatki, które już wędrują po złożonych krajobrazach społecznych i emocjonalnych, są szczególnie narażone na błędną interpretację zaprogramowanych odpowiedzi chatbota AI jako szczerej komunikacji międzyludzkiej. Według dr Scotta Collinsa, psychologa dziecięcego z Aura (aplikacje do ochrony tożsamości i bezpieczeństwa w sieci), Nastolatki korzystające z chatbotów często komunikują się z nimi przez dłuższy czas niż tradycyjne platformy komunikacyjne, takie jak SMS-y lub Snapchat, co budzi poważne obawy dotyczące ich emocjonalnej zależności od tych technologii.

** Szukaj prawdziwego wsparcia:**

Chociaż technologie chatbotów AI rozwijają się bardzo szybko, Należy pamiętać, że nie zastępują one komunikacji międzyludzkiej i profesjonalnej pomocy w zakresie zdrowia psychicznego. Sam Altman, dyrektor generalny OpenAI, ostrzega przed używaniem ChatGPT jako terapeuty z powodu braku ochrony prawnej poufnych informacji udostępnianych chatbotowi.

Dla tych, którzy borykają się z problemami ze zdrowiem psychicznym, oto kilka bezpieczniejszych alternatyw:

      • Zwróć się do zaufanych dorosłych: * * rodzic, nauczyciel, psycholog szkolny lub inna osoba dorosła, której możesz powierzyć swoje myśli i uczucia, może zaoferować nieocenione wsparcie i wskazówki.
      • Eksploruj społeczności internetowe: * * chociaż wymagana jest ostrożność, niektóre moderowane społeczności internetowe poświęcone zdrowiu psychicznemu mogą zapewnić poczucie połączenia i wspólnoty doświadczeń. Pamiętaj, że konieczne jest nadanie priorytetu rzeczywistemu życiu wraz z wszelkimi interakcjami online.
      • Prowadzenie dziennika: * * pisanie myśli i uczuć może być oczyszczające i pomóc w uzyskaniu jasności i zrozumienia.
      • Szukaj profesjonalnej pomocy: * * Psiterapeuci to wyszkoleni specjaliści, którzy mogą zapewnić terapię opartą na dowodach i wsparcie dostosowane do Twoich indywidualnych potrzeb.

Chatboty AI mają swoje miejsce w naszym życiu, ale jeśli chodzi o zdrowie psychiczne, poleganie na nich w celu przeprowadzenia terapii jest jak próba radzenia sobie ze złożoną chorobą medyczną za pomocą zwykłej wyszukiwarki — ryzyko wyrządzenia szkody przekracza wszelkie postrzegane korzyści.