Tribunal apoia Pentágono em caso contra a empresa de IA Anthropic, para já - Sem Enrolação

Tribunal apoia Pentágono em caso contra a empresa de IA Anthropic, para já

Tribunal apoia Pentágono em caso contra a empresa de IA Anthropic, para já

Continua após a publicidade


Um tribunal federal de recurso, em Washington, D.C., recusou bloquear, para já, a inclusão da empresa de Inteligência Artificial (IA) Anthropic na lista negra de segurança nacional do Pentágono, numa vitória para a administração de Donald Trump.

anthropic pentagono02

Continua após a publicidade



Conforme informámos, a disputa entre a Anthropic e o Pentágono surgiu depois de a empresa de IA, responsável pelo chatbot Claude, se recusar a autorizar o uso da sua tecnologia em operações militares norte-americanas, incluindo vigilância e armamento autónomo, citando preocupações éticas e de segurança.

Em resposta, o Departamento da Defesa classificou a empresa como um risco para a cadeia de abastecimento nacional, uma medida rara que impede a empresa de celebrar contratos com o Pentágono e que poderá ter consequências mais alargadas para o seu negócio.

É neste contexto que um tribunal federal dos Estados Unidos decidiu agora não bloquear, para já, essa designação, numa vitória para a administração de Trump, que surge depois de outro tribunal de recurso ter chegado à conclusão oposta num desafio legal separado apresentado pela Anthropic, segundo a Reuters.

A Anthropic alega que o secretário da Defesa, Pete Hegseth, excedeu a sua autoridade ao classificar a empresa como um risco para a cadeia de abastecimento de segurança nacional devido à sua recusa em remover certas limitações de utilização dos seus produtos.

Um painel de juízes do Tribunal de Recurso dos Estados Unidos para o Circuito do Distrito de Columbia rejeitou o pedido da Anthropic para suspender a designação enquanto o caso decorre. Contudo, a decisão não constitui uma sentença final.

Aliás, uma porta-voz da Anthropic afirmou, numa declaração após a decisão de quarta-feira, que a empresa está confiante de que o tribunal acabará por concordar que a designação de risco para a cadeia de abastecimento é ilegal.

Claude Anthropic 1

Anthropic está a contestar o Pentágono em dois processos

O processo judicial é um de dois apresentados pela Anthropic contra a medida sem precedentes de Hegseth, que surgiu depois de a empresa se ter recusado a permitir que os militares utilizassem o chatbot de IA Claude para vigilância dos Estados Unidos ou armas autónomas, devido a preocupações de segurança e ética.

O secretário da Defesa, Pete Hegseth, emitiu ordens que classificaram a Anthropic ao abrigo de duas leis diferentes, e a empresa está a contestar ambas separadamente.

Um juiz federal da Califórnia bloqueou uma dessas ordens a 26 de março, afirmando que o Pentágono parecia ter retaliado ilegalmente contra a Anthropic pelas suas posições sobre segurança em IA.

Os processos alegam que as designações foram ilegais, não sustentadas por factos e inconsistentes com os elogios anteriores dos militares ao Claude.

Segundo a Reuters, o caso em Washington, D.C., diz respeito a uma lei que poderá levar ao alargamento da lista negra a todo o governo civil após um processo de revisão interagências.

Por sua vez, o caso da Califórnia envolve um estatuto mais restrito que exclui a Anthropic de contratos do Pentágono relacionados com sistemas de informação militar.

Saiba mais sobre Inteligência Artificial

Publicidade


Sem Enrolação
Sem Enrolação

Conteúdo com dicas de tecnologia rápidas e diretas ao ponto!

Artigos: 2143

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *