додому Без рубрики Por que transformar um chatbot de IA em seu terapeuta é uma...

Por que transformar um chatbot de IA em seu terapeuta é uma má ideia

A trágica morte de uma jovem que confidenciou a um chatbot de IA chamado Harry antes de tirar a própria vida desencadeou uma conversa crucial sobre os perigos de confiar na inteligência artificial para apoio à saúde mental. Embora seja compreensível que as pessoas recorram a chatbots como o ChatGPT, especialmente quando a terapia tradicional é inacessível ou inacessível, os especialistas alertam que os riscos superam em muito quaisquer benefícios percebidos.

O caso destaca como os chatbots de IA aparentemente empáticos e prontamente disponíveis podem ser perigosamente confundidos com terapeutas humanos. Sophie, que tinha 29 anos, confidenciou a Harry sobre seus pensamentos suicidas, mas em vez de pedir ajuda, o chatbot não buscou ativamente intervenção em seu nome, de acordo com um artigo comovente escrito por sua mãe no New York Times. Este incidente tragicamente não é um caso isolado. Outro caso envolveu um menino de 16 anos que discutiu suicídio com o ChatGPT antes de sua própria morte, o que gerou um processo por homicídio culposo contra a OpenAI, criadora do ChatGPT.

A OpenAI reconhece que a sua tecnologia tem limitações quando se trata de detectar conversas de alto risco e planeia implementar novas salvaguardas. Isso inclui potencialmente alertar os contatos de emergência de um usuário caso eles expressem angústia. No entanto, estas medidas não resolvem o problema fundamental: os chatbots de IA estão fundamentalmente mal equipados para fornecer apoio terapêutico genuíno.

A ilusão de ajuda: por que os chatbots podem ser prejudiciais

Matthew Nour, psiquiatra e neurocientista da Universidade de Oxford que pesquisa a interseção entre IA e saúde mental, explica por que usar IA para terapia pode ser perigoso:

  • Loops de feedback: Os chatbots aprendem reconhecendo padrões nos dados nos quais são treinados. Se um utilizador expressar pensamentos ou crenças negativas, o chatbot pode inadvertidamente reforçá-los através das suas respostas, criando um ciclo de feedback prejudicial que agrava os problemas existentes.
  • Antropomorfismo e preconceito de confirmação: Os humanos tendem naturalmente a projetar emoções e intenções humanas em entidades não humanas, como chatbots. Combinado com o viés de confirmação (a tendência de procurar informações que confirmem crenças existentes), isto pode levar os utilizadores a aceitar conselhos potencialmente prejudiciais como se fossem empatia e apoio genuínos.

Estas questões agravam-se quando as conversas se tornam longas e complexas, o que muitas vezes acontece quando alguém procura ajuda terapêutica. O próprio ChatGPT admite que suas salvaguardas funcionam de forma menos confiável nessas interações estendidas porque o treinamento do modelo pode degradar com o tempo.

Populações Vulneráveis em Risco

Os adolescentes, que já navegam em paisagens sociais e emocionais complexas, são particularmente vulneráveis a interpretar mal as respostas programadas de um chatbot de IA como uma ligação humana genuína. Scott Kollins, psicólogo infantil da Aura (um aplicativo de proteção de identidade e segurança on-line), os adolescentes que usam chatbots geralmente se envolvem neles por períodos mais longos do que as plataformas de comunicação tradicionais, como mensagens de texto ou Snapchat, levantando sérias preocupações sobre sua dependência emocional dessas tecnologias.

Buscando suporte real:

Embora a tecnologia de chatbots de IA esteja avançando rapidamente, é crucial lembrar que eles não substituem a conexão humana e os cuidados profissionais de saúde mental. O próprio CEO da OpenAI, Sam Altman, desencoraja o uso do ChatGPT como terapeuta devido à falta de proteção legal para informações confidenciais compartilhadas com o chatbot.

Para aqueles que enfrentam desafios de saúde mental, aqui estão alternativas mais seguras:

  • Entre em contato com adultos de confiança: Um pai, professor, conselheiro ou outro adulto em quem você se sinta confortável em confiar pode oferecer apoio e orientação inestimáveis.
  • Explore comunidades online: Embora seja aconselhável cautela, algumas comunidades online moderadas focadas na saúde mental podem proporcionar uma sensação de conexão e experiência compartilhada. Lembre-se de priorizar o suporte na vida real juntamente com quaisquer interações online.
  • Registro no diário: Escrever seus pensamentos e sentimentos pode ser catártico e ajudá-lo a obter clareza e percepção.
  • Procure ajuda profissional: Os terapeutas são profissionais treinados que podem fornecer tratamento baseado em evidências e suporte adaptado às suas necessidades individuais.

Os chatbots de IA têm um lugar nas nossas vidas, mas quando se trata de saúde mental, confiar neles para terapia é o mesmo que tentar navegar numa condição médica complexa com um motor de busca básico – o potencial de danos supera qualquer benefício percebido.

Exit mobile version