Reguladores britânicos analisam riscos do novo modelo de IA da Anthropic

Compartilhe essa Informação

Autoridades britânicas avaliam riscos da nova IA da Anthropic em meio a preocupações de segurança digital.

Autoridades do Reino Unido estão mobilizadas para avaliar os riscos associados ao mais recente modelo de inteligência artificial (IA) desenvolvido pela Anthropic. Essa ação surge em um contexto de preocupações acerca dos impactos que essa tecnologia pode ter em sistemas críticos.

Representantes do Banco da Inglaterra, da autoridade de conduta financeira e do Tesouro britânico estão dialogando com o Centro Nacional de Segurança Cibernética. O objetivo é analisar as possíveis vulnerabilidades que a nova tecnologia pode expor, com foco na capacidade do modelo de identificar falhas em infraestruturas digitais amplamente utilizadas.

A iniciativa ocorre em um momento em que instituições financeiras e órgãos reguladores estão cada vez mais atentos aos impactos da IA na segurança digital, especialmente devido à crescente adoção dessas ferramentas em operações críticas.

O modelo em questão, denominado Claude Mythos Preview, ainda não está amplamente disponível no mercado. Atualmente, ele está sendo testado em um ambiente controlado dentro de um projeto específico voltado à segurança cibernética.

Segundo informações da Anthropic, a tecnologia já demonstrou a capacidade de identificar milhares de vulnerabilidades relevantes em sistemas operacionais, navegadores e outros softwares amplamente utilizados.

Debate ganha escala global

Esse potencial de detecção traz tanto oportunidades quanto preocupações. Por um lado, a IA pode acelerar a identificação de falhas, fortalecendo a proteção digital. Por outro lado, também aumenta o risco de exploração dessas vulnerabilidades, caso a tecnologia seja mal utilizada.

Nos próximos dias, autoridades britânicas planejam compartilhar informações com bancos, seguradoras e operadores de mercado em encontros destinados a discutir os impactos e preparar respostas coordenadas.

A preocupação com os riscos associados à IA não se limita ao Reino Unido. Nos Estados Unidos, autoridades também estão iniciando discussões com grandes instituições financeiras para avaliar os impactos do modelo, indicando que o tema já ganhou uma dimensão internacional.

Esse desenvolvimento integra uma iniciativa maior da Anthropic, que visa o uso da IA para defesa cibernética, permitindo que organizações selecionadas testem o modelo em cenários controlados.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *