empresa de IA pode estar a caminho da lista negra dos EUA - Sem Enrolação

empresa de IA pode estar a caminho da lista negra dos EUA

empresa de IA pode estar a caminho da lista negra dos EUA

Continua após a publicidade


A tensão entre o Governo dos Estados Unidos da América (EUA) e a Anthropic, uma empresa de Inteligência Artificial que desenvolve ferramentas para usos militares e civis, está a aumentar a ponto de esta poder estar a caminho da lista negra do país. Explicamos-lhe o que se passa.

anthropic departamento defesa eua pentagono01

Continua após a publicidade


Fundada em 2021 por antigos executivos da OpenAI, a Anthropic foi o primeiro desenvolvedor de IA a ser utilizado em operações confidenciais do Departamento de Defesa dos EUA, sediado no Pentágono, em Washington.

A empresa de IA é conhecida sobretudo por criar o Claude, um dos modelos de linguagem de grande escala mais populares do cenário tecnológico atual.

Para uso militar e de defesa, os modelos de IA podem resumir grandes volumes de texto, analisar dados, traduzir, transcrever e redigir memorandos.

Em teoria, podem também apoiar sistemas de armamento autónomos ou semiautónomos, capazes de identificar e atingir alvos sem necessidade de instruções humanas.

Apesar destas capacidades no âmbito militar e de defesa, a maioria das empresas de IA possui termos que proíbem esta utilização.

anthropic

A Anthropic, por exemplo, descreve-se como uma "Public Benefit Corporation", comprometida com o desenvolvimento e manutenção responsáveis de IA avançada para benefício da humanidade a longo prazo.

Relação da Anthropic com o Governo dos EUA e o Pentágono

No verão passado, o Pentágono anunciou que iria atribuir contratos de defesa a quatro empresas de IA: Anthropic, Google, OpenAI e xAI. Cada contrato poderia atingir um valor de até 200 milhões de dólares.

A Anthropic foi a primeira empresa de IA a ser aprovada para redes militares confidenciais, nas quais trabalha alegadamente com parceiros como a empresa norte-americana de software Palantir Technologies, criticada pelas suas ligações ao exército israelita.

calude maduro00

O Claude, a IA da Anthropic, foi utilizado na operação militar norte-americana que resultou no rapto do Presidente da Venezuela Nicolás Maduro, em janeiro deste ano. Esta terá sido a primeira vez que uma IA comercial foi usada num ataque confidencial. Leia mais aqui.

Apesar de a Anthropic se descrever como uma desenvolvedora "responsável", a administração de Trump pretende poder utilizar os produtos das empresas de IA que selecionou sem restrições.

O secretário da Defesa dos EUA, Pete Hegseth, afirmou inclusive que a sua visão para sistemas militares baseados em IA implica que estes funcionem "sem constrangimentos ideológicos que limitem aplicações militares legais", acrescentando que a IA do Pentágono "não será woke".

Neste cenário, as agências Associated Press e Reuters, citando fontes anónimas, indicaram que, numa reunião realizada na terça-feira, Pete Hegseth apresentou um ultimato ao diretor-executivo da Anthropic, Dario Amodei.

O líder da empresa de IA tem até às 17h01 de sexta-feira para aceitar disponibilizar os modelos de IA da empresa para utilização na nova rede interna do Pentágono com menos restrições, sob pena de perder o contrato governamental.

No entanto, a Anthropic recusa recuar quanto às salvaguardas que impedem que a sua tecnologia seja usada para vigilância interna nos EUA e para programar armas autónomas capazes de atingir alvos sem intervenção humana.

calude maduro03

Internamente, o Claude é visto como capaz de apoiar futuras contingências, incluindo uma possível campanha militar a envolver o Irão.

Anthropic pode estar a caminho da lista negra dos EUA

Responsáveis do Departamento de Defesa dos EUA alertaram que poderiam classificar a empresa de IA como um risco para a cadeia de fornecimento.

Em vez disso, poderiam recorrer à Defense Production Act para conceder essencialmente ao exército maior autoridade para usar os seus produtos mesmo sem aprovação da empresa, segundo uma pessoa familiarizada com a reunião e um alto funcionário do Pentágono, ambos sob anonimato, citados pela Al Jazeera.

Uma IA poderosa, ao analisar milhares de milhões de conversas de milhões de pessoas, poderia avaliar o sentimento público, detetar focos de deslealdade em formação e eliminá-los antes de crescerem.

Escreveu o diretor-executivo da Anthropic, num ensaio, no mês passado, levantado preocupações éticas sobre o uso governamental sem controlo da IA, incluindo os perigos de drones armados totalmente autónomos e da vigilância em massa assistida por IA capaz de monitorizar dissidência.

A fonte familiarizada descreveu o tom da reunião desta semana como "cordial", mas afirmou que Amodei recusou ceder em duas questões centrais:

  • Operações militares de seleção de alvos totalmente autónomas;
  • Vigilância interna de cidadãos norte americanos.

O Pentágono opõe-se às restrições éticas da Anthropic, uma vez que as operações militares exigem ferramentas sem limitações incorporadas, segundo o alto responsável do Pentágono, que defendeu que este apenas emite ordens legais.

eua 00

Segundo o mesmo alto responsável do Pentágono, a utilização legal das ferramentas da Anthropic seria responsabilidade dos militares.

Pentágono aborda Boeing e Lockheed Martin sobre dependência da Anthropic

Entretanto, após a reunião de terça-feira, o Pentágono terá contactado a Boeing e a Lockheed Martin, na quarta-feira, para pedir uma análise sobre a sua exposição à Anthropic e ao seu modelo de IA Claude, de acordo com fontes familiarizadas com as conversas.

Segundo noticiado pela Axios, isto poderá abrir caminho para designar formalmente a empresa como um "risco para a cadeia de fornecimento".

Nos EUA, esta designação é normalmente reservada a empresas ligadas a países adversários, e significa que o Governo do país considera que ela pode representar uma ameaça à segurança nacional ou à fiabilidade de produtos críticos, especialmente se estiver ligada a tecnologias sensíveis ou sistemas militares.

A classificação permite que o Governo dos EUA imponha restrições, supervisione de perto ou mesmo obrigue a empresa a adaptar os seus produtos para fins militares, podendo dificultar contratos futuros ou parcerias estratégicas.

Aplicá‑la a uma empresa tecnológica norte-americana, especialmente uma cujo software está integrado em sistemas militares confidenciais, seria uma ruptura sem precedentes com a abordagem habitual.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2048

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *