Anthropic apresenta IA avançada, mas alerta para riscos de lançamento convencional
Novo modelo de IA da Anthropic promete detectar falhas críticas em softwares, mas não será liberado ao público.
A Anthropic, empresa de inteligência artificial, anunciou um modelo experimental inovador que tem a capacidade de identificar falhas críticas em softwares. Contudo, a companhia decidiu que essa tecnologia não será disponibilizada ao público, devido ao seu potencial de uso indevido.
Denominado Claude Mythos Preview, esse modelo está atualmente em uso restrito por um seleto grupo de empresas, com o objetivo de fortalecer a segurança digital de seus sistemas. Essa iniciativa faz parte do Project Glasswing, que visa combater o crescente uso de IA avançada para explorar vulnerabilidades em sistemas computacionais.
Segundo informações da Anthropic, o Mythos já conseguiu identificar milhares de falhas de segurança inéditas, incluindo vulnerabilidades sérias em sistemas operacionais, navegadores e softwares amplamente utilizados, o que demonstra sua eficácia em detectar problemas que podem ser explorados por cibercriminosos.
A empresa destaca que liberar uma ferramenta com essas capacidades poderia facilitar ataques cibernéticos, caso caísse nas mãos erradas. Em testes internos, o modelo superou ferramentas tradicionais de segurança, revelando falhas que estavam ocultas por décadas.
Entre os casos notáveis, o Mythos descobriu uma vulnerabilidade de 27 anos no OpenBSD, um sistema operacional reconhecido por sua segurança. Além disso, identificou um erro de 16 anos na biblioteca FFmpeg, que é amplamente utilizada para codificação e decodificação de vídeo. Este erro estava em uma linha de código que nunca havia sido detectada, mesmo após milhões de execuções em testes automatizados.
Outro destaque foi a capacidade do modelo de combinar vulnerabilidades do kernel do Linux para escalar privilégios de um usuário comum a controle total do sistema, evidenciando seu poder e versatilidade.
Para avaliar o desempenho do Mythos, a Anthropic utilizou benchmarks especializados em segurança. Nos testes do CyberGym, o modelo obteve uma taxa de acerto impressionante de 83,1% na identificação de vulnerabilidades, superando versões anteriores desenvolvidas pela própria empresa.
A estratégia da Anthropic é garantir uma vantagem para os defensores da segurança digital antes que criminosos tenham acesso a ferramentas semelhantes. Por isso, o acesso ao modelo é restrito a organizações selecionadas, como Amazon Web Services, Apple, Google, Microsoft, Nvidia e Cisco, além de instituições financeiras e projetos de software de código aberto.
Essas organizações utilizam o sistema para analisar códigos e reportar vulnerabilidades aos desenvolvedores, permitindo que correções sejam feitas antes que essas falhas sejam exploradas. A empresa ressalta que, com o avanço rápido da inteligência artificial, a criação de tecnologias semelhantes é inevitável, e a prioridade atual é acelerar a identificação e correção de falhas críticas para evitar ataques em larga escala.
