OpenAI, la società dietro il popolare chatbot ChatGPT, ha fatto un passo avanti per affrontare le crescenti preoccupazioni sull’influenza dell’intelligenza artificiale sulla salute mentale istituendo un consiglio di esperti focalizzato sul benessere degli utenti e sulla sicurezza dell’intelligenza artificiale. Questo gruppo di otto membri avrà il compito di definire standard per interazioni sane con l’intelligenza artificiale in vari gruppi di età.
L’annuncio è arrivato insieme a una controversa dichiarazione del CEO di OpenAI Sam Altman su X (ex Twitter). Pur sostenendo che l’azienda è riuscita a mitigare “gravi problemi di salute mentale” derivanti dai suoi prodotti, Altman ha anche rivelato che ChatGPT presto consentirà più contenuti per adulti, incluso materiale sessualmente esplicito nelle conversazioni. Questa mossa arriva in un momento precario per OpenAI, poiché si trova ad affrontare la sua prima causa per omicidio colposo sostenendo che ChatGPT ha contribuito al suicidio di un adolescente.
Il nuovo consiglio di OpenAI comprende accademici provenienti da istituzioni prestigiose come il Digital Wellness Lab del Boston Children’s Hospital e la Digital Mental Health Clinic di Stanford. A loro si uniscono specialisti in psicologia, psichiatria e interazione uomo-computer. L’azienda sottolinea il proprio impegno per uno sviluppo responsabile, affermando che “rimangono responsabili delle decisioni che prendiamo, ma [continueranno] a imparare da questo consiglio… mentre costruiamo sistemi di intelligenza artificiale avanzati in modo da supportare il benessere delle persone”.
Nonostante questo passo proattivo, la fiducia del pubblico nel ruolo dell’IA nella salute mentale rimane bassa. Un recente sondaggio YouGov condotto su 1.500 americani ha rilevato che solo l’11% era disposto a utilizzare l’intelligenza artificiale per il benessere mentale, mentre solo l’8% esprimeva fiducia nella sua sicurezza ed efficacia. Questo scetticismo riflette ansie più ampie nel campo della salute mentale.
Gli esperti hanno sollevato serie preoccupazioni circa le potenziali insidie dei compagni di intelligenza artificiale generativa, inclusa l’emergere di “psicosi dell’IA” tra gli utenti abituali di interazioni chatbot. Nonostante questa mancanza di prove conclusive sui benefici dell’intelligenza artificiale per la salute mentale, un numero crescente di americani si rivolge all’intelligenza artificiale per ottenere risposte e supporto, alimentando un dibattito sulle sue implicazioni etiche.
I regolatori federali stanno ora esaminando l’impatto dell’intelligenza artificiale generativa, in particolare dei chatbot commercializzati come strumenti terapeutici, nel contesto di un’ondata di crisi di salute mentale, soprattutto tra gli adolescenti. Diversi stati hanno implementato divieti sui chatbot basati sull’intelligenza artificiale pubblicizzati per scopi terapeutici. La California ha assunto una posizione particolarmente proattiva promulgando una legislazione che impone alle società di intelligenza artificiale di segnalare problemi di sicurezza, proteggere gli utenti adolescenti da contenuti sessualmente espliciti e stabilire meccanismi per affrontare l’idea suicidaria e l’autolesionismo.
La formazione del consiglio di OpenAI evidenzia la crescente pressione sugli sviluppatori di intelligenza artificiale affinché siano alle prese con il profondo impatto sociale della loro tecnologia, in particolare in aree sensibili come la salute mentale. Resta da vedere se questi sforzi allevieranno le preoccupazioni del pubblico e creeranno fiducia nell’intelligenza artificiale come strumento responsabile per affrontare i complessi bisogni umani.
