
Continua após a publicidade
Um investigador de segurança demonstrou o quanto a IA já pode transformar a cibersegurança. Com a ajuda de Claude, conseguiu descobrir vulnerabilidades críticas e proteger milhões de euros em testes controlados.

Continua após a publicidade
A IA já não se limita a escrever e-mails, resumir documentos ou ajudar na programação. Está também a começar a explorar uma das áreas mais sensíveis da ciência da computação: a procura de falhas de segurança. E o desenvolvimento mais recente neste campo tem atraído muita atenção por combinar dois aspetos muito graves: vulnerabilidades reais e muito dinheiro em jogo.
O protagonista da história é Nicholas Carlini, investigador de segurança afiliado da Anthropic e figura conhecida no setor. Numa demonstração recente, mostrou como o Claude, a IA da empresa, foi capaz de encontrar e explorar vulnerabilidades em contratos inteligentes e software altamente complexo. Carlini não recebeu mesmo 3 milhões de euros como recompensa pessoal. Este valor refere-se ao montante aproximado dos fundos que Claude conseguiu comprometer em testes controlados de contratos inteligentes
Claude encontra falhas onde antes era muito difícil vê-las.
O mais impressionante não foi apenas o dinheiro associado a estes contratos inteligentes. Carlini explicou ainda que o Claude descobriu uma falha muito antiga no kernel do Linux, uma vulnerabilidade presente no código desde o início de 2003 e que só foi detetada agora. Não funciona como um botão mágico que qualquer pessoa pode carregar para quebrar sistemas complexos sem qualquer conhecimento prévio.
O que Carlini demonstrou é algo completamente diferente. Que uma IA bem utilizada pode atuar como um multiplicador de força para investigadores experientes, revendo muito mais código, mais rapidamente e com uma consistência quase impossível para um ser humano.
O que incomoda não é o prémio, mas sim o que vem a seguir
O que torna esta história um pouco perturbadora não é apenas o facto de uma IA estar a encontrar vulnerabilidades lucrativas. É pensar no que pode acontecer quando estas ferramentas se tornarem ainda melhores. A Anthropic já tinha demonstrado em 2025 que os seus agentes conseguiam encontrar exploits em contratos inteligentes com bastante eficácia, e este novo caso aponta para uma tendência clara: os modelos estão a tornar-se cada vez melhores a encontrar bugs reais e úteis.
No final de contas, a notícia não é tanto sobre Carlini "ganhar milhões" graças a Claude. É sobre algo maior: a IA já começa a demonstrar que consegue encontrar vulnerabilidades a um nível que antes exigia enormes quantidades de tempo, experiência e paciência. E isso muda significativamente as regras do jogo.
Saiba mais sobre Inteligência Artificial
Publicidade






