Anthropic e Pentágono reiniciam negociações sobre uso militar do Claude
Anthropic e o Departamento de Defesa dos EUA reavaliam parceria após desentendimentos sobre uso de IA.
Recentemente, a Anthropic, desenvolvedora de inteligência artificial, e o Departamento de Defesa dos Estados Unidos, agora denominado Departamento de Guerra, suspenderam suas relações. O rompimento ocorreu após a empresa se recusar a flexibilizar suas diretrizes, que proíbem o uso de sua tecnologia em aplicações consideradas perigosas, como vigilância em massa e armamentos autônomos.
No entanto, novas informações sugerem que a Anthropic pode estar reconsiderando sua posição. O CEO Dario Amodei teria retomado conversas com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia, com o intuito de estabelecer novos termos contratuais que possibilitem a utilização do sistema Claude nas forças armadas.
O ambiente entre as partes permanece tenso. Após o desentendimento, Michael fez críticas públicas a Amodei, acusando-o de desonestidade e de colocar a segurança nacional em risco. Em resposta, Amodei também expressou descontentamento, direcionando críticas ao Pentágono e à OpenAI, que se beneficiou da ruptura ao firmar um acordo com o governo.
Em um memorando interno, Amodei descreveu o acordo entre a OpenAI e o Departamento de Defesa como um “teatro da segurança”, alegando que as comunicações entre as partes eram “mentiras descaradas”. Ele também insinuou que a deterioração das relações da Anthropic com o governo poderia estar relacionada a fatores políticos, uma vez que a empresa não fez doações ao ex-presidente Donald Trump, diferentemente de outros líderes do setor tecnológico.
O memorando revelou que, em um momento das negociações, o Departamento de Defesa indicou que aceitaria os termos da Anthropic, contanto que uma cláusula específica sobre “análise de dados adquiridos em massa” fosse removida. A empresa considerou essa exigência suspeita, pois a cláusula abordava diretamente suas principais preocupações.
Além disso, a Anthropic enfrenta pressões significativas. Durante as discussões da semana passada, o secretário de Defesa, Pete Hegseth, alertou que a empresa poderia ser classificada como um “risco para a cadeia de suprimentos” se não se alinhasse ao Pentágono. Essa classificação é geralmente aplicada a empresas vistas como ameaças à segurança nacional, o que poderia impactar negativamente a posição da Anthropic no mercado tecnológico.
Se a empresa for realmente identificada como um risco, companhias que mantêm contratos com o Departamento de Defesa poderiam ser forçadas a interromper o uso do Claude e a encerrar suas parcerias com a startup.
No cerne dessa disputa estão as condições para a aplicação militar da tecnologia da Anthropic. A empresa estabelece limites rigorosos, proibindo a aplicação de suas ferramentas em vigilância em massa e em sistemas autônomos letais, que operam sem supervisão humana. Por outro lado, o Departamento de Defesa argumenta que a inteligência artificial deve estar disponível para “qualquer uso legal”, uma definição que a Anthropic considera excessivamente ampla e incompatível com seus princípios éticos. Relatos indicam que outras empresas do setor, como OpenAI e xAI, já aceitaram tais condições.
