
Continua após a publicidade
O ChatGPT Health, a nova ferramenta de saúde da OpenAI, tem sido alvo de escrutínio após estudos demonstrarem que o chatbot falha gravemente na identificação de emergências médicas críticas.

Continua após a publicidade
ChatGPT health com erros fatais na classificação de urgências
A OpenAI iniciou o ano com a introdução do "modo saúde" no ChatGPT. Embora a funcionalidade ainda não tenha chegado a Portugal, já se encontra disponível nos Estados Unidos, onde os primeiros relatórios científicos começam a questionar a sua viabilidade e segurança para o utilizador comum.
Uma investigação recente, publicada na prestigiada revista Nature Medicine, revelou que o ChatGPT Health falhou na triagem de 51,6% dos casos de emergência analisados. Ao ser confrontada com milhares de cenários clínicos, a inteligência artificial (IA) demonstrou uma tendência perigosa para desvalorizar quadros graves.
Em situações de insuficiência respiratória ou cetoacidose diabética - que exigem intervenção imediata -, o modelo sugeriu frequentemente que o paciente aguardasse entre 24 a 48 horas para consultar um médico. Apesar destes erros em áreas críticas, a ferramenta conseguiu identificar corretamente episódios de AVC e reações alérgicas agudas.

A inconsistência no diagnóstico de sintomas leves
As falhas do sistema não se limitam à subestimação de riscos. O estudo verificou que o ChatGPT Health tendeu a sobrevalorizar sintomas ligeiros em 64,8% das interações. Casos de dores de garganta persistentes, por exemplo, foram classificados como situações que exigiam cuidados médicos urgentes.
O Dr. Ashwin Ramaswamy, responsável pelo estudo, sublinhou a falta de lógica clínica nestas recomendações, apontando que a disparidade de critérios entre diferentes patologias retira credibilidade ao sistema.
A relevância destes dados tem que ver com a mudança de comportamento dos utilizadores, que recorrem cada vez mais ao telemóvel como primeira linha de diagnóstico. O que antes era uma pesquisa rápida no Google tornou-se agora um diálogo com um chatbot.
Alex Ruani, investigadora especializada em desinformação médica, alertou em declarações ao The Guardian que estas ferramentas criam uma "falsa sensação de segurança". Segundo a especialista, confiar numa IA que sugere esperar dois dias durante um ataque de asma pode ter consequências fatais.
Em resposta às críticas, um porta-voz da OpenAI afirmou que o ChatGPT Health não foi concebido para realizar diagnósticos médicos, mas sim para oferecer contexto e responder a dúvidas complementares. A empresa reforça que a ferramenta não substitui o aconselhamento profissional, embora admita que não consegue controlar a forma como o público final utiliza o serviço.
Leia também:
Saiba mais sobre Inteligência Artificial
Publicidade






