Trump determina que órgãos federais dos EUA suspendam uso de IA da Anthropic, concorrente da OpenAI

Compartilhe essa Informação

Trump ordena suspensão do uso de IA da Anthropic nas agências federais dos EUA.

O presidente dos Estados Unidos, Donald Trump, anunciou que todas as agências federais devem interromper imediatamente o uso de programas de inteligência artificial da Anthropic, empresa responsável pelo modelo Claude, concorrente do ChatGPT.

Em um comunicado em sua rede social, Trump destacou que a decisão se deve ao bloqueio imposto pela Anthropic, que proíbe o uso de seus modelos para vigilância em massa e armamentos autônomos. Ele enfatizou que os EUA não permitirão que uma empresa determine como suas forças armadas devem agir.

“O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”, afirmou Trump, reforçando sua posição de que as decisões sobre operações militares devem ser tomadas pelos líderes militares designados por ele.

O presidente também declarou: “Estou ordenando que todas as agências federais cessem imediatamente todo o uso da tecnologia da Anthropic. Não precisamos dela, não a queremos e não faremos mais negócios com eles novamente”.

Trump alertou que a Anthropic deve colaborar durante esse período de transição ou enfrentará consequências civis e criminais. A empresa, por sua vez, reiterou que não permitirá o uso irrestrito de suas ferramentas pelo Departamento de Guerra, mantendo sua posição ética contra o uso de IA para fins violentos.

Desde 2025, a Anthropic possui um contrato de US$ 200 milhões com o Pentágono para fornecer modelos de IA para diversas aplicações militares. No entanto, a empresa se recusa a permitir o uso de suas tecnologias para vigilância em massa ou armamentos autônomos, citando preocupações éticas.

Recentemente, o Pentágono notificou a Anthropic sobre a necessidade de aceitar suas condições, sob pena de enfrentar uma ordem de cumprimento forçado com base na Lei de Produção de Defesa, que concede ao governo federal poderes para priorizar as necessidades de segurança nacional.

Além disso, o governo dos EUA considerou a Anthropic como um potencial risco para a cadeia de suprimentos, uma designação que pode prejudicar a reputação da companhia e sua capacidade de trabalhar com o governo americano.

Dario Amodei, CEO da Anthropic, reafirmou que os modelos de IA foram utilizados para defender o país, mas que a empresa estabelece limites éticos, especialmente em relação à vigilância em massa e ao controle de armas letais, afirmando que esses sistemas ainda não são suficientemente confiáveis para operar sem supervisão humana.

“O uso desses sistemas para a vigilância doméstica em massa é incompatível com os valores democráticos”, afirmou Amodei.

Ele também ressaltou que os sistemas de IA de última geração não possuem a confiabilidade necessária para serem utilizados em operações letais sem a intervenção de um ser humano.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *