Anthropic retoma negociações com Pentágono sobre utilização do Claude em operações militares

Compartilhe essa Informação

Anthropic retoma negociações com o Pentágono sobre uso de IA em contextos militares.

A Anthropic, empresa de inteligência artificial, e o Departamento de Defesa dos Estados Unidos voltaram a dialogar para discutir a utilização de suas tecnologias em sistemas militares. As conversas foram reiniciadas após um impasse que quase levou a startup a ser classificada como um “risco à cadeia de suprimentos”, o que impediria agências federais de utilizar suas ferramentas.

A principal questão em debate envolve as salvaguardas de segurança. A Anthropic resiste ao uso de sua tecnologia em operações de vigilância em massa ou em armas autônomas. Ao contrário de concorrentes como a OpenAI, que já firmou acordos para operar em redes confidenciais, a Anthropic busca garantias contratuais para evitar a análise indiscriminada de grandes volumes de dados.

A pressão de investidores significativos, como Amazon e Nvidia, foi um fator determinante para a retomada das negociações. Essas empresas expressaram preocupações em uma carta ao governo, alertando sobre os riscos que a punição à Anthropic poderia trazer para o setor tecnológico dos Estados Unidos como um todo.

Atualmente, o CEO da Anthropic, Dario Amodei, está em contato direto com Emil Michael, um executivo do Pentágono responsável por pesquisas e engenharia. O objetivo é estabelecer um contrato que permita o uso militar da tecnologia, assegurando que os princípios éticos da empresa sejam respeitados.

A Anthropic está em uma fase de crescimento ambicioso, com expectativas de faturar US$ 20 bilhões por ano, o que a torna um cliente estratégico para o governo. A exclusão desse mercado poderia beneficiar concorrentes que possuem menos restrições em suas tecnologias de IA.

Um dos pontos de discórdia é a cláusula que impede a IA de analisar grandes volumes de dados coletados de forma massiva. Críticas de oficiais do Pentágono indicam que a preocupação excessiva com a segurança da IA pode comprometer o desenvolvimento de ferramentas de defesa essenciais para o país.

O resultado dessas negociações poderá definir o futuro da colaboração entre empresas de tecnologia do Vale do Silício e as forças armadas. Um novo acordo poderia permitir que o exército utilize o sistema Claude, da Anthropic, e demonstraria a disposição do governo em aceitar as propostas de controle ético apresentadas pela empresa.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *