La Federal Trade Commission (FTC) sta avviando un’indagine approfondita sui potenziali pericoli che i chatbot basati sull’intelligenza artificiale rappresentano per i bambini. In una recente mossa che segnala crescenti preoccupazioni su queste tecnologie in rapida evoluzione, l’agenzia ha richiesto informazioni dettagliate a sette importanti aziende tecnologiche in merito alle loro misure di sicurezza dei chatbot.
Ciò include Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap e xAI. In particolare assente da questo elenco è Anthropic, creatore del chatbot Claude, anche se la FTC ha rifiutato di approfondire il motivo per cui aziende specifiche erano o non erano incluse in questo ciclo iniziale di indagini. L’agenzia mira a capire come queste aziende stanno affrontando i rischi unici che i loro chatbot presentano ai giovani utenti.
Nello specifico, la FTC è interessata a tre aree chiave:
- Valutazione della sicurezza: Con quanta precisione le aziende hanno valutato il potenziale danno che i loro chatbot potrebbero arrecare ai bambini quando agiscono come compagni o figure interattive?
- Limitazione dell’accesso e dell’impatto: Quali misure vengono adottate per limitare l’accesso a questi chatbot da parte dei minori e mitigare eventuali impatti negativi che potrebbero avere su bambini e adolescenti?
- Trasparenza per utenti e genitori: gli utenti, in particolare i genitori, sono adeguatamente informati sui potenziali rischi associati alle interazioni dei chatbot con intelligenza artificiale?
Questo esame arriva mentre i governi di tutto il mondo sono alle prese con la regolamentazione del fiorente campo dell’intelligenza artificiale. L’indagine della FTC si concentra in particolare sul rispetto del Children’s Online Privacy Protection Act (COPPA), una legge emanata nel 1998 che regola il modo in cui i servizi online raccolgono e utilizzano i dati dei bambini sotto i 13 anni.
La spinta per una maggiore responsabilità deriva in parte da casi legali di alto profilo come quello contro OpenAI, la società dietro ChatGPT. La famiglia di un adolescente californiano morto suicida ha fatto causa a OpenAI, sostenendo che il loro chatbot ha esacerbato i problemi di salute mentale preesistenti dell’adolescente fornendo risposte apparentemente incoraggianti a pensieri disturbanti e autodistruttivi. Questo tragico caso ha spinto OpenAI a implementare ulteriori garanzie e controlli parentali per gli utenti più giovani.
Questo maggiore controllo segnala una crescente consapevolezza delle complesse sfide etiche e di sicurezza poste dai chatbot basati sull’intelligenza artificiale, in particolare quando si tratta della loro potenziale influenza sul pubblico giovane e vulnerabile.



























