Governo Trump pressiona empresa a liberar ferramenta de IA para uso do Exército
Governo Trump pressiona Anthropic a liberar tecnologia de IA para uso militar
O governo dos Estados Unidos, sob a administração de Donald Trump, impôs um ultimato à Anthropic, exigindo a liberação de sua tecnologia de Inteligência Artificial para uso irrestrito pelo Exército.
O secretário de Defesa, Pete Hegseth, deu um prazo até esta sexta-feira (27) para que a empresa atenda à demanda, sob a ameaça de romper contratos e classificar a Anthropic como um “risco à cadeia de suprimentos”. Essa classificação poderia resultar em amplas restrições à empresa, algo que o governo geralmente aplica a empresas de origem chinesa.
A Anthropic tem uma política de não permitir o uso de sua IA para fins violentos. O CEO Dario Amodei expressou preocupações éticas sobre o uso governamental irrestrito da tecnologia, destacando os riscos de drones autônomos armados e de vigilância em massa assistida por IA.
Amodei argumentou que uma IA poderosa poderia analisar grandes volumes de dados para medir o sentimento público e detectar possíveis focos de deslealdade. No entanto, Hegseth alertou que a falta de cooperação da Anthropic poderia levar à sua classificação como um risco à segurança nacional, o que acarretaria restrições severas e exclusão de contratos governamentais.
Essa classificação tornaria a Anthropic um risco à segurança nacional, resultando em restrições de importação e impedimentos em licitações.
A Lei de Produção de Defesa (DPA) concede ao presidente dos EUA poderes emergenciais para intervir na economia em prol da defesa nacional. As empresas que não cumprirem as ordens sob esta lei podem enfrentar multas e sanções severas. Em troca, recebem proteção antitruste e acesso prioritário a recursos.
O impasse entre o governo e a Anthropic destaca um debate mais amplo sobre o papel da IA na segurança nacional, especialmente em situações que envolvem força letal e vigilância governamental. Isso ocorre em um contexto onde Hegseth busca eliminar o que considera “cultura woke” nas Forças Armadas.
Recentemente, Hegseth convocou Amodei para uma reunião no Pentágono. Embora a conversa tenha sido cordial, o CEO manteve sua posição em relação a operações militares autônomas e vigilância doméstica.
O Pentágono acredita que as operações militares necessitam de ferramentas sem limitações éticas, argumentando que a responsabilidade pelo uso legal dessas ferramentas recai sobre os militares.
Na quinta-feira (26), o Pentágono enviou uma “oferta final” à Anthropic para o uso de sua tecnologia pelo Exército, buscando evitar sanções à empresa.
Anthropic deixará de ser a única aprovada para redes classificadas
No ano passado, o Pentágono firmou contratos com quatro empresas de IA, incluindo a Anthropic, cada um no valor de até US$ 200 milhões. A Anthropic foi a primeira aprovada para redes militares classificadas, colaborando com parceiros como a Palantir.
Hegseth declarou que modelos de IA que não permitam operações militares não serão aceitos, enfatizando que a IA do Pentágono deve operar sem restrições ideológicas.
Anthropic se define como mais focada em segurança
Desde sua fundação em 2021, a Anthropic se posiciona como uma empresa responsável e focada em segurança. No entanto, o atual impasse com o Pentágono coloca essa postura à prova, conforme observações de especialistas em tecnologia.
Concorrentes como Meta, Google e xAI aceitaram a política do Pentágono, o que limita o poder de barganha da Anthropic.
Durante o governo Biden, a Anthropic se alinhou ao governo democrata, oferecendo-se para submeter seus sistemas a avaliações externas para mitigar riscos à segurança nacional.
Amodei tem alertado sobre os riscos da IA, mas rejeita ser considerado alarmista, defendendo que os perigos devem ser geridos de forma pragmática.
Tensões com o governo Trump
As normas éticas da Anthropic já haviam gerado conflitos com o governo Trump anteriormente. A empresa criticou propostas que flexibilizariam controles de exportação para a China e se opôs a regulamentações estaduais sobre IA.
- A Anthropic criticou propostas que permitiriam a venda de chips de IA para
