Investigador ganha 3 milhões ao achar falhas com o Claude - Sem Enrolação

Investigador ganha 3 milhões ao achar falhas com o Claude

Investigador ganha 3 milhões ao achar falhas com o Claude

Continua após a publicidade


Um investigador de segurança demonstrou o quanto a IA já pode transformar a cibersegurança. Com a ajuda de Claude, conseguiu descobrir vulnerabilidades críticas e proteger milhões de euros em testes controlados.

Claude IA segurança

Continua após a publicidade



A IA já não se limita a escrever e-mails, resumir documentos ou ajudar na programação. Está também a começar a explorar uma das áreas mais sensíveis da ciência da computação: a procura de falhas de segurança. E o desenvolvimento mais recente neste campo tem atraído muita atenção por combinar dois aspetos muito graves: vulnerabilidades reais e muito dinheiro em jogo.

O protagonista da história é Nicholas Carlini, investigador de segurança afiliado da Anthropic e figura conhecida no setor. Numa demonstração recente, mostrou como o Claude, a IA da empresa, foi capaz de encontrar e explorar vulnerabilidades em contratos inteligentes e software altamente complexo. Carlini não recebeu mesmo 3 milhões de euros como recompensa pessoal. Este valor refere-se ao montante aproximado dos fundos que Claude conseguiu comprometer em testes controlados de contratos inteligentes

Claude encontra falhas onde antes era muito difícil vê-las.

O mais impressionante não foi apenas o dinheiro associado a estes contratos inteligentes. Carlini explicou ainda que o Claude descobriu uma falha muito antiga no kernel do Linux, uma vulnerabilidade presente no código desde o início de 2003 e que só foi detetada agora. Não funciona como um botão mágico que qualquer pessoa pode carregar para quebrar sistemas complexos sem qualquer conhecimento prévio.

O que Carlini demonstrou é algo completamente diferente. Que uma IA bem utilizada pode atuar como um multiplicador de força para investigadores experientes, revendo muito mais código, mais rapidamente e com uma consistência quase impossível para um ser humano.

O que incomoda não é o prémio, mas sim o que vem a seguir

O que torna esta história um pouco perturbadora não é apenas o facto de uma IA estar a encontrar vulnerabilidades lucrativas. É pensar no que pode acontecer quando estas ferramentas se tornarem ainda melhores. A Anthropic já tinha demonstrado em 2025 que os seus agentes conseguiam encontrar exploits em contratos inteligentes com bastante eficácia, e este novo caso aponta para uma tendência clara: os modelos estão a tornar-se cada vez melhores a encontrar bugs reais e úteis.

No final de contas, a notícia não é tanto sobre Carlini "ganhar milhões" graças a Claude. É sobre algo maior: a IA já começa a demonstrar que consegue encontrar vulnerabilidades a um nível que antes exigia enormes quantidades de tempo, experiência e paciência. E isso muda significativamente as regras do jogo.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2127

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *