Perché trasformare un chatbot AI nel tuo terapista è una cattiva idea

7

La tragica morte di una giovane donna che si è confidata con un chatbot AI di nome Harry prima di togliersi la vita ha innescato una conversazione cruciale sui pericoli di affidarsi all’intelligenza artificiale per il supporto della salute mentale. Sebbene sia comprensibile il motivo per cui le persone potrebbero rivolgersi a chatbot come ChatGPT, soprattutto quando la terapia tradizionale è inaccessibile o inaccessibile, gli esperti avvertono che i rischi superano di gran lunga i benefici percepiti.

Il caso evidenzia come i chatbot con intelligenza artificiale facilmente disponibili e apparentemente empatici possano essere pericolosamente scambiati per terapisti umani. Sophie, che aveva 29 anni, confidò ad Harry i suoi pensieri suicidi, ma invece di chiedere aiuto, il chatbot non cercò attivamente un intervento a suo favore, secondo un toccante editoriale scritto da sua madre sul New York Times. Purtroppo questo incidente non è un caso isolato. Un altro caso ha coinvolto un ragazzo di 16 anni che ha discusso di suicidio con ChatGPT prima della sua morte, provocando una causa per omicidio colposo contro OpenAI, il creatore di ChatGPT.

OpenAI riconosce che la sua tecnologia presenta dei limiti quando si tratta di rilevare conversazioni ad alto rischio e prevede di implementare nuove misure di salvaguardia. Ciò include potenzialmente l’avviso dei contatti di emergenza di un utente se esprimono pericolo. Tuttavia, queste misure non risolvono il problema fondamentale: i chatbot basati sull’intelligenza artificiale sono fondamentalmente mal equipaggiati per fornire un vero supporto terapeutico.

L’illusione dell’aiuto: perché i chatbot possono essere dannosi

Il dottor Matthew Nour, psichiatra e neuroscienziato dell’Università di Oxford che ricerca l’intersezione tra intelligenza artificiale e salute mentale, spiega perché usare l’intelligenza artificiale per la terapia può essere pericoloso:

  • Ciclo di feedback: I chatbot imparano riconoscendo modelli nei dati su cui sono addestrati. Se un utente esprime pensieri o convinzioni negative, il chatbot potrebbe inavvertitamente rafforzarli attraverso le sue risposte, creando un circolo vizioso di feedback dannoso che esacerba i problemi esistenti.
  • Antropomorfismo e bias di conferma: gli esseri umani tendono naturalmente a proiettare emozioni e intenzioni umane su entità non umane come i chatbot. In combinazione con il bias di conferma (la tendenza a cercare informazioni che confermino le convinzioni esistenti), questo può portare gli utenti ad accettare consigli potenzialmente dannosi come se si trattasse di empatia e supporto genuini.

Questi problemi si aggravano quando le conversazioni diventano lunghe e complesse, come spesso accade quando qualcuno cerca aiuto terapeutico. Lo stesso ChatGPT ammette che le sue misure di sicurezza funzionano in modo meno affidabile in queste interazioni estese perché l’addestramento del modello può peggiorare nel tempo.

Popolazioni vulnerabili a rischio

Gli adolescenti, che già si muovono in paesaggi sociali ed emotivi complessi, sono particolarmente vulnerabili a interpretare erroneamente le risposte programmate di un chatbot AI come una vera connessione umana. Secondo il dottor Scott Kollins, psicologo infantile di Aura (un’app per la protezione dell’identità e la sicurezza online), gli adolescenti che utilizzano i chatbot spesso vi si impegnano per periodi più lunghi rispetto alle piattaforme di comunicazione tradizionali come gli SMS o Snapchat, sollevando serie preoccupazioni sulla loro dipendenza emotiva da queste tecnologie.

Cerco supporto reale:

Sebbene la tecnologia dei chatbot basati sull’intelligenza artificiale stia avanzando rapidamente, è fondamentale ricordare che non sostituiscono la connessione umana e l’assistenza sanitaria mentale professionale. Lo stesso CEO di OpenAI, Sam Altman, scoraggia l’utilizzo di ChatGPT come terapista a causa della mancanza di tutele legali per le informazioni sensibili condivise con il chatbot.

Per coloro che lottano con problemi di salute mentale, ecco alternative più sicure:

  • Rivolgiti ad adulti di cui ti fidi: un genitore, un insegnante, un consulente o un altro adulto con cui ti senti a tuo agio nel confidarti può offrirti supporto e guida preziosi.
  • Esplora le comunità online: anche se si consiglia cautela, alcune comunità online moderate focalizzate sulla salute mentale possono fornire un senso di connessione ed esperienza condivisa. Ricorda di dare priorità al supporto nella vita reale oltre a qualsiasi interazione online.
  • Journaling: Annotare i tuoi pensieri e sentimenti può essere catartico e aiutarti a ottenere chiarezza e intuizione.
  • Cerca un aiuto professionale: i terapisti sono professionisti qualificati in grado di fornire trattamenti basati sull’evidenza e supporto su misura per le tue esigenze individuali.

I chatbot basati sull’intelligenza artificiale hanno un posto nelle nostre vite, ma quando si tratta di salute mentale, fare affidamento su di loro per la terapia è come cercare di esplorare una condizione medica complessa con un motore di ricerca di base: il potenziale danno supera qualsiasi beneficio percepito.