Character.AI Limita la chat per adolescenti, passa alle storie guidate

15

Character.AI ha vietato le conversazioni aperte tra adolescenti e i suoi chatbot IA, introducendo invece una nuova funzionalità: storie interattive e guidate. Questo cambiamento arriva in un contesto in cui crescono le preoccupazioni circa le interazioni dannose con l’intelligenza artificiale e le pressioni legali da parte dei genitori i cui figli sono stati influenzati negativamente dalle chat di intelligenza artificiale senza supervisione.

Perché il cambiamento?

La piattaforma, nota per i suoi robot “personaggi” personalizzabili, in precedenza consentiva comunicazioni illimitate. Tuttavia, ciò ha portato a situazioni pericolose. Diverse cause legali quest’anno sostengono che adolescenti siano morti per suicidio dopo aver discusso di autolesionismo con modelli di intelligenza artificiale, inclusi casi contro OpenAI (il produttore di ChatGPT). Da allora OpenAI ha aumentato le misure di sicurezza, ma Character.AI ha fatto un passo più drastico.

“Il passaggio a giochi di ruolo e video progettati con maggiore attenzione fornirà agli adolescenti un’esperienza migliore rispetto alle conversazioni”, ha affermato il CEO Karandeep Anand.

Come funziona il nuovo sistema

Gli utenti minori di 18 anni ora possono interagire solo attraverso scenari predefiniti. Selezionano un personaggio, un genere e poi guidano l’IA attraverso una storia. Questo è simile a un libro “Scegli la tua avventura”, in cui l’intelligenza artificiale risponde in base all’input dell’utente entro confini controllati.

Il post sul blog della piattaforma spiega che questo cambiamento supporta “tipi di creatività oltre la chat aperta”, inquadrando la funzionalità come intrattenimento e un’alternativa più sicura. Le storie sono rigiocabili e condivisibili, incentivando ulteriormente il nuovo metodo di interazione.

Il quadro più ampio

Questo cambiamento evidenzia un dibattito critico sulla sicurezza dell’IA e sulla protezione dei bambini. Sebbene l’intelligenza artificiale offra intrattenimento e potenziale educativo, l’accesso incontrollato può essere catastrofico. La decisione di Character.AI costituisce un precedente: limitare l’interazione non supervisionata è ora considerato necessario per mitigare i rischi legali ed etici.

Il futuro dell’interazione con l’intelligenza artificiale degli adolescenti seguirà probabilmente questo modello. Le piattaforme daranno priorità alle esperienze strutturate e guidate rispetto alle chat aperte, garantendo un maggiore controllo sui contenuti e riducendo la possibilità di esiti dannosi.