Anthropic proíbe uso militar do Claude por parte dos EUA
Conflito entre governo dos EUA e Anthropic sobre uso militar de IA se intensifica.
Recentemente, a tensão entre o governo dos Estados Unidos e a startup de inteligência artificial Anthropic aumentou significativamente. O secretário de Defesa, Pete Hegseth, exigiu que a empresa liberasse seu modelo de IA, o chatbot Claude, para aplicações militares sem restrições.
A Anthropic, por sua vez, se recusa a flexibilizar suas políticas, afirmando que não permitirá o uso de sua tecnologia em armas autônomas ou em vigilância em massa. Essa posição foi reafirmada em declarações do CEO Dario Amodei, que destacou a responsabilidade da empresa em não comprometer valores éticos e democráticos.
O governo estabeleceu um prazo até a sexta-feira (27) para que a Anthropic aceitasse os termos impostos. Caso contrário, Hegseth ameaçou classificar a empresa como um “risco da cadeia de suprimentos”, o que poderia resultar em sua exclusão de contratos governamentais ou na aplicação da Lei de Produção de Defesa, que confere ao presidente poderes emergenciais para intervir na economia visando a segurança nacional.
Amodei reiterou que a empresa não pode, em sã consciência, permitir que seus modelos sejam usados sem limitações. Ele ressaltou que a Anthropic está disposta a colaborar com o Departamento de Defesa, desde que suas condições de segurança sejam respeitadas.
O Pentágono, por sua vez, afirma que não tem interesse em utilizar a tecnologia da Anthropic para vigilância em massa ou armamentos autônomos, mas exige que o contrato permita o uso da IA para “todos os fins lícitos”, o que a Anthropic considera problemático.
As autoridades do Departamento de Defesa enviaram à empresa uma “última oferta”, fixando um prazo final para aceitação. A pressão sobre a Anthropic aumenta à medida que o governo busca garantir que suas operações militares não sejam comprometidas por restrições tecnológicas.
Linhas vermelhas: armas autônomas e vigilância em massa
- A Anthropic mantém sua posição de não flexibilizar as restrições contra o uso de sua tecnologia em armamentos autônomos ou vigilância em massa;
- Amodei expressou preocupação com o uso de IA em contextos que possam minar valores democráticos;
- O Pentágono, embora negue interesse em vigilância em massa, exige um contrato que permita o uso amplo da tecnologia;
- Esse pedido é considerado essencial pelo Pentágono para não comprometer operações militares críticas.
A pressão sobre a Anthropic é intensa, com o Pentágono buscando garantir que suas operações não sejam prejudicadas. O Departamento de Defesa considera que a colaboração da Anthropic é vital, mas a empresa se recusa a ceder em suas diretrizes éticas.
Uso do Claude em operações militares
Informações indicam que o Claude foi utilizado em uma operação militar na Venezuela, resultando na captura de Nicolás Maduro. A Anthropic e o Departamento de Defesa não comentaram oficialmente sobre o uso do sistema nessa operação, que levanta questões sobre a aplicação da IA em cenários de conflito.
A empresa proíbe o uso de sua IA para fins violentos e expressou preocupações sobre a vigilância em massa, alertando para os riscos associados a uma IA poderosa que poderia monitorar a população.
Pressão e possíveis sanções
Se classificada como um “risco da cadeia de suprimentos”, a Anthropic pode enfrentar severas restrições, incluindo a exclusão de licitações e setores vitais à segurança nacional. A aplicação da Lei de Produção de Defesa permitiria ao governo exigir o uso de sua tecnologia, com possíveis penalidades severas.
O Departamento de Defesa já iniciou conversas com grandes contratadas do setor para explorar alternativas, indicando uma preparação para um possível rompimento com a Anthropic.
Contratos bilionários e concorrência
Recentemente, o Departamento de Defesa concedeu à Anthropic e outras empresas
