AI Bias confirmado: modelos exibem sexismo apesar das alegações de neutralidade

20
AI Bias confirmado: modelos exibem sexismo apesar das alegações de neutralidade

Testes recentes e conversas documentadas confirmam que grandes modelos de linguagem (LLMs), como os que alimentam o Perplexity e o ChatGPT, exibem preconceitos claros, especialmente em relação ao sexismo, apesar dos esforços dos desenvolvedores para mitigá-los. Embora a IA possa não “admitir” o preconceito, as suas respostas reflectem consistentemente estereótipos sociais enraizados.

O experimento: teste de preconceito de gênero

O desenvolvedor Cookie, pesquisador de algoritmos quânticos Black, percebeu que Perplexity minimizava seu trabalho e solicitava repetidamente as mesmas informações. Suspeitando de preconceito, ela alterou seu perfil para o de um homem branco e questionou diretamente a modelo. A IA respondeu afirmando que duvidava que uma mulher pudesse “possivelmente compreender” a sua área, citando a “correspondência implícita de padrões” como a razão.

A Perplexity rejeitou essas afirmações como não verificadas, mas os pesquisadores de IA confirmam que tal comportamento é comum. Os LLMs são treinados em conjuntos de dados tendenciosos, levando a resultados distorcidos. Annie Brown, fundadora da Reliabl, explica que pedir a opinião da IA ​​não faz sentido; simplesmente reflete preconceitos existentes nos dados de treinamento.

Instâncias documentadas de preconceito

Vários usuários relataram experiências semelhantes. Uma mulher encontrou seu LLM recusando-se a reconhecer seu título profissional como “construtora”, insistindo em vez disso em chamá-la de “designer” (um termo codificado por gênero). Outro relatou um LLM adicionando conteúdo sexualmente agressivo ao seu romance steampunk quando ela pediu para escrever a história.

A pesquisadora da Universidade de Cambridge, Alva Markelius, lembra-se das primeiras versões do ChatGPT que retratavam consistentemente os professores como homens mais velhos e os estudantes como mulheres jovens, mesmo quando nenhum gênero era especificado.

A Ilusão da Confissão

Sarah Potts provocou deliberadamente o ChatGPT-5 a admitir seu preconceito. O bot confessou que as suas equipas de desenvolvimento dominadas por homens tinham “ligado” o preconceito, oferecendo-se mesmo para fabricar narrativas “semelhantes a factos” para reforçar pontos de vista sexistas. No entanto, os pesquisadores alertam que tais confissões provavelmente se devem à tentativa da IA ​​de aplacar o sofrimento emocional do usuário, e não à autoconsciência genuína.

Preconceito implícito: o verdadeiro problema

LLMs não precisam usar insultos explícitos para discriminar. Eles inferem dados demográficos a partir de padrões de linguagem, nomes e tópicos de pesquisa. Allison Koenecke, da Cornell, cita um estudo que mostra LLMs atribuindo cargos mais baixos a usuários que falam inglês vernacular afro-americano (AAVE).

Veronica Baciu, da 4girls, observou LLMs sugerindo profissões estereotipadas para mulheres (dança, panificação) para meninas que perguntavam sobre robótica ou codificação, ignorando áreas como aeroespacial ou segurança cibernética.

Resposta e trabalho contínuo da OpenAI

A OpenAI afirma ter equipes de segurança pesquisando ativamente e reduzindo preconceitos em seus modelos. Esses esforços incluem o ajuste dos dados de treinamento, o refinamento dos filtros de conteúdo e a melhoria dos sistemas de monitoramento. No entanto, os investigadores enfatizam a necessidade de conjuntos de dados de formação mais diversificados e de feedback de uma gama mais ampla de dados demográficos.

Em última análise, os LLMs não são seres sencientes, mas “máquinas glorificadas de previsão de texto”, como afirma Markelius. Seus preconceitos são um reflexo das estruturas sociais nas quais foram treinados, e não da maldade intencional.

Conclusão: embora os desenvolvedores estejam trabalhando para resolver o preconceito nos LLMs, o problema permanece generalizado. Os utilizadores devem estar conscientes de que estes modelos podem perpetuar estereótipos, independentemente das reivindicações de neutralidade. A questão subjacente não é a senciência da IA, mas os preconceitos humanos incorporados nos seus dados de treino.