Sistema de pesquisa e publicação de artigos acadêmicos sobre IA enfrenta colapso devido ao uso da própria tecnologia
ICML enfrenta crise de credibilidade após rejeição massiva de artigos devido ao uso de IA nas avaliações.
Em março, a ICML, a conferência acadêmica mais antiga do mundo dedicada ao aprendizado de máquina, rejeitou 497 artigos científicos após descobrir que 506 revisores haviam utilizado inteligência artificial (IA) para elaborar suas avaliações. Essa prática violou uma regra previamente acordada pelos revisores.
A ICML é organizada pela Sociedade Internacional de Aprendizado de Máquina (IMLS) e ocorre anualmente desde 1980. A conferência recebe submissões de artigos científicos no final de janeiro ou início de fevereiro, onde pesquisadores da área de IA compartilham suas descobertas.
Os artigos submetidos passam por um rigoroso processo de revisão, realizado por um comitê de especialistas, que avaliam a qualidade do trabalho e determinam sua publicação, um processo que geralmente leva meses.
Os resultados das avaliações são comunicados aos autores em maio, enquanto a conferência acontece em julho. Publicar na ICML é considerado equivalente a publicar em periódicos renomados como Nature ou Science, destacando a relevância da conferência no campo da pesquisa científica.
No entanto, a ICML enfrenta um desafio significativo: sua autoridade está sendo questionada em comunidades especializadas, refletindo preocupações sobre a integridade do processo de revisão.
Desafios no processo de revisão
O número de artigos submetidos à ICML tem crescido exponencialmente, com 6.538 submissões em 2023 e uma previsão de 9.653 para 2024, um aumento de 48%. Esse crescimento não é acompanhado por um aumento no número de revisores qualificados, o que tem gerado uma sobrecarga no sistema de revisão.
As diretrizes da ICML proíbem o uso de IA nas avaliações para evitar viés. Estudos indicam que artigos avaliados por modelos de IA tendem a receber notas mais altas, levantando preocupações sobre a qualidade das avaliações.
Para a edição de 2026, a ICML ofereceu aos revisores a opção de seguir uma política que proíbe o uso de IA ou uma que permite seu uso sob condições específicas. Apenas os revisores que optaram pela proibição e violaram essa regra foram penalizados.
Os 497 artigos rejeitados foram revisados por revisores que também eram autores, resultando em penalizações devido à violação das diretrizes. Dentre os 506 infratores, 398 eram revisores que haviam submetido seus próprios trabalhos.
O sistema de detecção da ICML utiliza instruções ocultas nos PDFs dos artigos, que são invisíveis para humanos, mas detectáveis por modelos de IA, permitindo que a conferência identifique avaliações que violam as regras.
A ICML não utilizou detectores genéricos de IA, e cada caso detectado foi verificado manualmente para assegurar a veracidade das violações.
Essa situação evidencia uma falha no sistema de revisão, que precisa ser reestruturado. O número de revisores qualificados não está crescendo na mesma proporção que o volume de artigos, resultando em um processo de revisão sobrecarregado.
Além disso, as decisões de aceitação ou rejeição têm se tornado cada vez mais aleatórias, comprometendo a consistência e a confiabilidade das avaliações.
A solução para essa crise ainda não é clara, mas aumentar o número de revisores qualificados é essencial. Uma possibilidade é melhorar a transparência do processo, publicando todas as avaliações, incluindo as de artigos rejeitados.
Outra alternativa seria implementar um sistema bidirecional de avaliação, onde os autores também avaliam a qualidade das revisões recebidas, criando um histórico de competência para os revisores. As conferências precisarão decidir sobre as estratégias a serem adotadas, e os resultados serão observados em 2027.
