
Continua após a publicidade
Um cientista perdeu dois anos de produção intelectual devido a uma incompreensão sobre as políticas de retenção de dados no ChatGPT da OpenAI. A situação serve de alerta crítico sobre a excessiva confiança depositada em ferramentas de inteligência artificial (IA) para o armazenamento de trabalho sensível.

Continua após a publicidade
Um erro fatal na gestão de dados no ChatGPT
O ChatGPT consolidou-se como um recurso valioso para tarefas quotidianas, como o aperfeiçoamento de mensagens formais ou a criação de rascunhos para textos menos críticos. No entanto, tal como os seus concorrentes, a ferramenta padece de limitações graves, desde as conhecidas "alucinações" até um tom excessivamente condescendente que pode induzir os utilizadores em erro.
Para Marcel Bucher, professor de Biologia Vegetal na Universidade de Colónia, estas limitações tornaram-se uma realidade catastrófica. Num artigo publicado na revista Nature, o académico confessou ter perdido dois anos de "trabalho académico meticulosamente estruturado" - o que incluía candidaturas a financiamentos, revisões de publicações, palestras e exames - após uma simples alteração nas definições de privacidade.
O incidente ocorreu quando Bucher decidiu desativar a opção de "consentimento de dados" na sua conta. O seu objetivo era puramente experimental: desejava verificar se continuaria a ter acesso a todas as funcionalidades do modelo sem ter de fornecer os seus dados à OpenAI. Contudo, ao fazê-lo, o histórico de conversas desapareceu instantaneamente e sem deixar rasto.
Segundo o relato do professor, não surgiu qualquer aviso prévio nem foi disponibilizada uma opção para anular a ação. O ecrã limitou-se a mostrar uma página em branco, assinalando o fim de milhares de horas de dedicação armazenadas na plataforma.

Reações divididas na comunidade académica
A revelação deste caso gerou uma onda de reações nas redes sociais, oscilando entre a compaixão e o escárnio.
- Muitos utilizadores questionaram como foi possível um académico de renome trabalhar durante dois anos sem efetuar cópias de segurança locais.
- Outros, de forma mais severa, chegaram a pedir o seu despedimento, criticando a sua dependência extrema o ChatGPT para o desempenho de funções académicas fundamentais.
Apesar das críticas, houve quem saísse em sua defesa. Roland Gromes, coordenador de ensino na Universidade de Heidelberg, elogiou a coragem de Bucher ao partilhar um erro tão vulnerável, sublinhando que, embora muitos académicos acreditem estar imunes a estas armadilhas, qualquer pessoa pode ser ingénua perante a aparente estabilidade destas tecnologias.
Well, kudos to Marcel Bucher for sharing a story about a deeply flawed workflow and a stupid mistake. A lot of academics believe they can see the pitfalls but all of us can be naive an run into this kind of problems!
— Roland Gromes (@gromesroland.bsky.social) January 23, 2026 at 1:12 PM
O risco da poluição científica por IA
O caso de Bucher surge num momento em que a utilização de IA generativa no meio científico é alvo de intensa polémica. Relatórios recentes indicam que as revistas científicas estão a ser inundadas por conteúdos de baixa qualidade gerados por IA, dificultando o processo de revisão por pares.
Estão inclusive a surgir publicações fraudulentas que utilizam modelos de linguagem para validar outros textos igualmente gerados por máquinas, poluindo a literatura académica.
Embora não existam provas de que Bucher estivesse a tentar publicar material artificial ou enganador, a sua experiência serve como um aviso severo. O docente acusou a OpenAI de comercializar subscrições do ChatGPT Plus sem garantir medidas básicas de proteção que impeçam a volatilidade de anos de trabalho.
Leia também:
Saiba mais sobre Inteligência Artificial
Publicidade






