
Continua após a publicidade
Uma investigação da empresa de cibersegurança Tenable Research revelou sete vulnerabilidades graves no ChatGPT-4o — algumas ainda presentes no ChatGPT-5.
As falhas, chamadas de “HackedGPT”, permitem o acesso indevido a dados pessoais, históricos de conversas e memórias armazenadas, expondo usuários e empresas a riscos de privacidade e manipulação de respostas.
De acordo com o relatório da Tenable, as vulnerabilidades permitem que criminosos virtuais burlem mecanismos de proteção, realizem o roubo de dados e mantenham ataques persistentes dentro do sistema da inteligência artificial.
Em alguns casos, basta que o usuário clique em um link ou faça uma pergunta para que o modelo seja comprometido — sem qualquer sinal de alerta.
O estudo, conduzido pelo engenheiro sênior Moshe Bernstein, descreve uma nova categoria de ameaça chamada injeção indireta de prompt.
Essa técnica insere comandos ocultos em sites aparentemente seguros, como blogs e comentários, capazes de enganar o modelo durante sua navegação e fazê-lo executar instruções maliciosas.
📲 Participe do canal do RealTime1 no Instagram
Falhas graves
Entre as falhas mais preocupantes estão os ataques “0-clique” e “1-clique”, que comprometem o sistema sem interação direta do usuário, e a injeção de memória persistente, que permite que códigos maliciosos permaneçam ativos mesmo após o encerramento da sessão.
As vulnerabilidades afetam principalmente as funções de memória e navegação web do ChatGPT, que lidam com informações pessoais e acesso à internet em tempo real.
A exploração dessas brechas pode expor dados sigilosos de conversas e até conteúdos conectados a outros serviços, como Google Drive e Gmail.
A OpenAI foi notificada das descobertas e corrigiu parte dos problemas, mas algumas falhas continuariam ativas. Segundo a Tenable, enquanto as vulnerabilidades não forem totalmente resolvidas, usuários e organizações seguem expostos a riscos de privacidade e segurança digital.
Como medidas preventivas, a Tenable recomenda que as equipes de segurança tratem as ferramentas de IA como superfícies de ataque ativas, revisem integrações com outros sistemas e monitorem sinais de comportamento anômalo, como respostas inesperadas ou links suspeitos. Também orienta isolar as funções de memória e navegação e reforçar a validação de URLs.
“Não basta confiar na IA; precisamos governá-la. Esses sistemas devem ser testados continuamente, com salvaguardas que garantam que trabalhem para nós, e não contra nós”, alerta o engenheiro Moshe Bernstein.
Leia Mais:
Veja mais Notícias sobre Tecnologia
Publicidade






