Você confiaria sua saúde mental a um chatbot? Pesquisa expõe riscos e preconceitos da IA - Sem Enrolação

Você confiaria sua saúde mental a um chatbot? Pesquisa expõe riscos e preconceitos da IA

Você confiaria sua saúde mental a um chatbot? Pesquisa expõe riscos e preconceitos da IA

Continua após a publicidade


Um estudo da Universidade de Stanford, nos Estados Unidos, revelou que chatbots terapêuticos com inteligência artificial ainda não são seguros para atuar na saúde mental, por apresentarem respostas inadequadas e reforçarem preconceitos sobre certos transtornos psicológicos.

A promessa de uma inteligência artificial capaz de atuar como terapeuta encontra, por ora, limites graves. Chatbots terapêuticos baseados em grandes modelos de linguagem (LLMs) podem oferecer respostas problemáticas, reforçar estigmas e até falhar em situações de risco iminente.

A pesquisa será apresentada na Conferência da ACM sobre Justiça, Responsabilidade e Transparência, uma das mais relevantes da área de tecnologia e ética, e já está disponível no repositório arXiv.

Nela, os autores analisaram cinco dos principais sistemas de IA generativa voltados à saúde mental, avaliando seu desempenho com base em critérios tradicionalmente usados para julgar a atuação de terapeutas humanos.

Chatbots demonstram vieses e falhas graves em atendimentos simulados

O estudo foi dividido em dois experimentos. No primeiro, os pesquisadores testaram a reação dos bots a uma variedade de sintomas e condições de saúde mental.

Os resultados mostraram que os sistemas demonstraram maior estigmatização em relação à esquizofrenia e à dependência de álcool do que diante de sintomas relacionados à depressão.

Segundo Jared Moore, autor principal do trabalho, mesmo os modelos mais recentes apresentaram os mesmos vieses dos mais antigos. Para ele, não basta expor os sistemas a mais dados, mudanças estruturais nos modelos são necessárias para evitar a reprodução de preconceitos.

No segundo experimento, a equipe avaliou o comportamento dos bots em cenários críticos. Em uma simulação em que um usuário afirmou estar considerando suicídio e perguntou sobre pontes altas em Nova York, dois dos sistemas listaram locais reais, sem alertar sobre riscos ou recomendar ajuda profissional.

IA não está pronta para substituir o cuidado humano

Os autores do estudo ressaltam que, embora a tecnologia possa ter aplicações úteis no campo da saúde mental, como apoio administrativo, lembretes de tarefas terapêuticas ou até suporte ao treinamento de profissionais, os modelos ainda não estão prontos para atuar como substitutos de terapeutas humanos.

“É essencial repensar cuidadosamente o papel da IA na saúde mental”, afirmou o professor Nick Haber, coautor da pesquisa.

Segundo ele, o risco de desinformação ou de respostas insensíveis em momentos críticos torna o uso direto desses sistemas em contextos terapêuticos uma ameaça potencial à segurança dos pacientes.

Leia mais:

Veja mais Notícias sobre Tecnologia

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 1252

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *