EUA Anunciam Revisão Abrangente dos Sistemas de IA das Gigantes de Tecnologia antes do Lançamento ao Público
Governo dos EUA terá acesso antecipado a novos modelos de inteligência artificial.
O governo dos Estados Unidos anunciou que passará a ter acesso antecipado a novos modelos de inteligência artificial desenvolvidos por grandes empresas de tecnologia. Essa iniciativa visa avaliar as ferramentas antes de sua disponibilização ao público.
Os acordos envolvem empresas como Google DeepMind, Microsoft e xAI, representando uma mudança significativa na postura do governo, que anteriormente defendia menor interferência no desenvolvimento de tecnologias de IA. Essa nova abordagem reflete uma preocupação crescente com os impactos e riscos associados a esses sistemas.
Fontes oficiais indicam que as parcerias são uma adaptação de compromissos firmados na gestão anterior, agora com novos termos e condições. A Casa Branca também está considerando a criação de um grupo de trabalho que incluirá representantes do governo e do setor tecnológico. O objetivo desse grupo seria discutir maneiras de avaliar e revisar novos sistemas de IA antes de sua liberação no mercado.
O Centro para Normas e Inovação em IA (Caisi), vinculado ao Departamento do Comércio, realizará análises antes da implementação dessas tecnologias. O Caisi também se encarregará de investigações específicas para entender melhor o funcionamento e os potenciais riscos associados a esses sistemas.
Ainda não está claro se os acordos anunciados estão relacionados a esse plano mais amplo em discussão. O Caisi substituiu um órgão criado durante a administração anterior que focava na segurança da inteligência artificial, refletindo uma nova abordagem em relação à regulamentação desse setor.
Durante a administração anterior, críticas à regulação de IA foram comuns, com alegações de que poderiam prejudicar a competitividade dos Estados Unidos, especialmente em comparação com a China. A mudança de postura atual pode estar relacionada ao avanço de novos sistemas mais poderosos, como o modelo “Mythos”, desenvolvido pela empresa Anthropic, que não foi divulgado ao público devido à sua capacidade de identificar falhas de segurança digital.
“Uma ciência de medição independente e rigorosa é essencial para compreender a IA de ponta e suas implicações para a segurança nacional”, afirmou Chris Fall, diretor do Caisi.
Informações recentes indicam que a Agência de Segurança Nacional (NSA) já teve acesso ao “Mythos” e está realizando testes com o sistema, evidenciando a crescente integração entre o governo e as inovações tecnológicas no campo da inteligência artificial.
