Character.AI restringe bate-papo entre adolescentes e muda para histórias guiadas

11

Character.AI proibiu conversas abertas entre adolescentes e seus chatbots de IA, introduzindo em vez disso um novo recurso: histórias interativas e guiadas. Esta mudança ocorre em meio a preocupações crescentes sobre interações prejudiciais de IA e pressões legais de pais cujos filhos foram impactados negativamente por bate-papos de IA não supervisionados.

Por que a mudança?

A plataforma, conhecida por seus bots de “personagens” personalizáveis, anteriormente permitia comunicação irrestrita. No entanto, isso levou a situações perigosas. Vários processos este ano alegam que adolescentes morreram por suicídio após discutirem automutilação com modelos de IA, incluindo casos contra OpenAI (criador do ChatGPT). Desde então, a OpenAI aumentou as medidas de segurança, mas a Character.AI tomou uma medida mais drástica.

“A mudança em direção a jogos e vídeos de RPG mais cuidadosamente projetados proporcionará uma experiência melhor para os adolescentes do que conversas”, disse o CEO Karandeep Anand.

Como funciona o novo sistema

Os utilizadores menores de 18 anos agora só podem interagir através de cenários pré-definidos. Eles selecionam um personagem, um gênero e, em seguida, guiam a IA através de uma história. Isso é semelhante a um livro “Escolha sua própria aventura”, onde a IA responde com base na entrada do usuário dentro de limites controlados.

A postagem no blog da plataforma explica que essa mudança apóia “tipos de criatividade além do bate-papo aberto”, enquadrando o recurso como entretenimento e uma alternativa mais segura. As histórias podem ser reproduzidas e compartilhadas, incentivando ainda mais o novo método de interação.

O panorama geral

Esta mudança destaca um debate crítico sobre a segurança da IA e a proteção das crianças. Embora a IA ofereça entretenimento e potencial educacional, o acesso não controlado pode ser catastrófico. A decisão da Character.AI abre um precedente: restringir a interação não supervisionada é agora vista como necessária para mitigar riscos legais e éticos.

O futuro da interação com IA entre adolescentes provavelmente seguirá este modelo. As plataformas darão prioridade a experiências estruturadas e guiadas em vez de chats abertos, garantindo maior controlo sobre o conteúdo e reduzindo a possibilidade de resultados prejudiciais.