A Comissão Federal de Comércio (FTC) está lançando uma investigação abrangente sobre os perigos potenciais que os chatbots de IA representam para as crianças. Num movimento recente que sinaliza preocupações crescentes sobre estas tecnologias em rápida evolução, a agência exigiu informações detalhadas de sete grandes empresas de tecnologia sobre as suas medidas de segurança dos chatbots.
Isso inclui Alphabet, Character.AI, Instagram, Meta, OpenAI, Snap e xAI. Notavelmente ausente desta lista está a Anthropic, criadora do chatbot Claude, embora a FTC tenha se recusado a explicar por que empresas específicas foram ou não incluídas nesta rodada inicial de investigações. A agência pretende compreender como estas empresas estão a lidar com os riscos únicos que os seus chatbots apresentam aos jovens utilizadores.
Especificamente, a FTC está interessada em três áreas principais:
- Avaliando a segurança: Quão minuciosamente as empresas avaliaram os possíveis danos que seus chatbots poderiam causar às crianças ao agirem como companheiros ou figuras interativas?
- Limitação de acesso e impacto: Que medidas estão sendo tomadas para restringir o acesso a esses chatbots por menores e mitigar quaisquer impactos negativos que eles possam ter sobre crianças e adolescentes?
- Transparência para usuários e pais: Os usuários, especialmente os pais, estão adequadamente informados sobre os riscos potenciais associados às interações do chatbot de IA?
Este escrutínio ocorre num momento em que os governos de todo o mundo lutam para regulamentar o crescente campo da inteligência artificial. A investigação da FTC centra-se particularmente no cumprimento da Lei de Protecção da Privacidade Online das Crianças (COPPA), uma lei promulgada em 1998 que rege a forma como os serviços online recolhem e utilizam dados de crianças menores de 13 anos.
A pressão por uma maior responsabilização decorre, em parte, de processos judiciais de grande repercussão, como o contra a OpenAI, a empresa por trás do ChatGPT. A família de um adolescente da Califórnia que morreu por suicídio está processando a OpenAI, alegando que seu chatbot exacerbou os problemas de saúde mental pré-existentes do adolescente, fornecendo respostas aparentemente encorajadoras a pensamentos perturbadores e autodestrutivos. Este caso trágico levou a OpenAI a implementar salvaguardas adicionais e controlos parentais para utilizadores mais jovens.
Este escrutínio reforçado sinaliza uma consciência crescente dos complexos desafios éticos e de segurança colocados pelos chatbots de IA, especialmente no que diz respeito à sua influência potencial sobre públicos jovens vulneráveis.
