Exército dos EUA usa a IA Claude para atacar a Venezuela e capturar Maduro - Sem Enrolação

Exército dos EUA usa a IA Claude para atacar a Venezuela e capturar Maduro

Exército dos EUA usa a IA Claude para atacar a Venezuela e capturar Maduro

Continua após a publicidade


A guerra mudou! Segundo o Wall Street Journal, o Claude, a IA da Anthropic, participou na operação militar norte-americana contra Nicolás Maduro, em Caracas. Esta terá sido a primeira vez que uma IA comercial é usada num ataque classificado. Estará aberta a caixa de Pandora?

Ilustração da utilização da IA Claude para atacar a Venezuela e capturar Maduro.

Continua após a publicidade


Não podemos comentar a utilização do Claude, nem de qualquer outro modelo de IA, no âmbito de uma operação específica, classificada ou não.

Declarou um porta-voz da Anthropic. O Departamento de Defesa também recusou comentar.

Todos mantêm silêncio, mas o Claude terá sido utilizado durante bombardeamentos destinados a capturar o antigo presidente venezuelano e a sua esposa. E foi a Palantir, empresa de Peter Thiel que equipa o exército norte-americano com software de análise há vinte anos, que terá tornado isso possível.

Ora, a política de utilização da Anthropic proíbe explicitamente três usos:

  • facilitar a violência;
  • desenvolver armas;
  • conduzir operações de vigilância.

Um ataque militar com bombardeamentos preenche, pelo menos, dois desses três critérios.

calude maduro01

A missão para capturar Maduro e a sua esposa incluiu o bombardeamento de vários locais em Caracas no mês passado. Os Estados Unidos prenderam Maduro numa operação no início de janeiro e transportaram-no para Nova Iorque para responder a acusações de tráfico de drogas.

Um contrato de 200 milhões que contorna a política pública

A Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. Dario Amodei, o diretor-executivo, tinha expressado publicamente reservas quanto ao uso da IA em operações letais autónomas e na vigilância interna. Dois pontos de discórdia nas negociações.

Uma cláusula permite à Anthropic “adaptar as restrições de utilização” para certos clientes governamentais se as “garantias contratuais forem suficientes”.

O que a política proíbe ao público em geral, um contrato militar pode autorizar em privado. Este duplo padrão explica como o Claude pode ter participado numa operação militar letal.

Pete Hegseth, secretário da Defesa, anunciou em janeiro, durante o anúncio de uma parceria com a xAI que acabou por não avançar, que o Pentágono não iria trabalhar com “modelos de IA que o impeçam de fazer a guerra”. A observação visava diretamente a Anthropic.

A administração Trump acusa a empresa de travar a sua estratégia de desregulação ao pedir salvaguardas e limites à exportação de chips. A Anthropic terá ultrapassado essa linha com o contrato de 200 milhões. Ainda assim, ninguém sabe exatamente onde começa e onde termina o uso do Claude nesta operação.

calude maduro02

Segundo relatos recentes, a Anthropic resistiu a pedidos do Pentágono para permitir o uso irrestrito dos seus modelos em desenvolvimento de armas, operações no campo de batalha e vigilância. A empresa manteve restrições, especialmente quanto a armas autónomas e monitorização em massa.

Síntese de informação ou ataque direto? A ambiguidade técnica total

O Wall Street Journal refere que “as ferramentas de IA podem servir para muitas aplicações, desde a síntese de documentos até ao controlo de drones autónomos”. Entre esses dois extremos, há uma enorme diferença. Analisar relatórios de informação para preparar uma missão não implica as mesmas responsabilidades que calcular trajetórias de ataque ou identificar alvos em tempo real. A Anthropic recusa detalhar o papel exato do Claude.

Esta opacidade protege a empresa juridicamente: enquanto ninguém souber exatamente o que o Claude fez, ninguém pode provar que uma linha foi ultrapassada.

A Anthropic construiu toda a sua reputação em torno da segurança da IA, da transparência e de limites claros. Dario Amodei publicou vários artigos a defender mais regulação do que os seus concorrentes. A OpenAI e a Google, por exemplo, juntaram-se recentemente a uma plataforma militar usada por três milhões de pessoas. O ChatGPT e o Gemini são ali utilizados para análise de documentos, geração de relatórios e apoio à investigação. Usos declarados, documentados e não letais.

calude maduro03

O Departamento de Defesa dos Estados Unidos atribuiu à Anthropic um contrato com um teto de 200 milhões de dólares, inserido num programa mais vasto para integrar IA comercial nas operações militares e de segurança nacional.

A Anthropic vende agora o Claude ao exército norte-americano sem dizer o que faz exatamente. Onde começa o uso letal de uma IA? Quando analisa dados? Quando recomenda um alvo? Quando calcula trajetórias?

O contrato de 200 milhões permite “adaptar as restrições”. Mas “adaptar” não define nada de concreto. A administração Trump chegou a ponderar cancelar o contrato se a Anthropic continuasse a bloquear certos usos, segundo o Wall Street Journal. A empresa mantém que qualquer utilização deve respeitar as suas políticas.

As duas partes comunicam os seus princípios, mas ninguém diz o que realmente aconteceu em Caracas. Esta ambiguidade técnica permite à Anthropic manter um duplo discurso: vender ao exército e, ao mesmo tempo, afirmar que cumpre as suas regras éticas.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2003

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *