Meta enfrenta críticas por ineficiência no combate a vídeos falsos gerados por inteligência artificial
Meta é alertada sobre a necessidade de reforçar a moderação de vídeos gerados por inteligência artificial.
A disseminação de vídeos falsos criados com inteligência artificial (IA) nas redes sociais está suscitando preocupações sobre a eficácia da moderação de conteúdo. Um conselho independente que supervisiona as decisões da Meta enfatizou a urgência de aprimorar os mecanismos de controle da empresa diante do aumento desse tipo de material em suas plataformas.
O Oversight Board, órgão criado pela Meta para revisar suas políticas de moderação, criticou a empresa por manter um vídeo gerado por IA que mostrava supostos danos na cidade de Haifa, em Israel, atribuídos a ataques iranianos, sem qualquer aviso sobre a artificialidade do conteúdo.
De acordo com especialistas, essa situação evidencia falhas na abordagem da Meta em relação a conteúdos manipulados em contextos de conflitos armados, especialmente em períodos de intensa circulação de informações nas redes sociais.
O conselho recomendou uma revisão das políticas que regulam o uso de inteligência artificial nas plataformas da Meta. A crescente produção de vídeos falsos relacionados a guerras e crises internacionais já está prejudicando a capacidade do público de distinguir entre fatos e informações fabricadas digitalmente.
Na avaliação do grupo, a falta de mecanismos mais robustos pode resultar em uma crise de confiança generalizada em relação à veracidade das informações publicadas online.
A Meta anunciou que irá adicionar um rótulo ao vídeo em questão dentro de sete dias e se comprometeu a seguir as recomendações em casos semelhantes no futuro.
Caso começou com vídeo viral
A análise do conselho foi motivada por um vídeo viral publicado em junho do ano passado por uma página do Facebook nas Filipinas, que se apresentava como um veículo de notícias. O material mostrava cenas de destruição em Haifa, supostamente causadas por forças iranianas.
Verificações posteriores revelaram que as imagens eram falsas e haviam sido criadas com ferramentas de inteligência artificial.
Esse conteúdo fazia parte de uma série de vídeos manipulados que circularam nas redes sociais após o início do conflito, com narrativas que variavam entre favoráveis a Israel e alinhadas ao Irã. Uma análise indicou que esse tipo de material acumulou pelo menos 100 milhões de visualizações em diversas plataformas.
Apesar das reclamações de usuários e da confirmação de que o vídeo não retratava eventos reais, a Meta inicialmente optou por não rotular nem remover o conteúdo.
Critério considerado insuficiente
Em resposta às críticas, a Meta argumentou que o vídeo não precisava de aviso, pois não representava um risco imediato de dano físico.
No entanto, o Oversight Board considera que esse critério é excessivamente restritivo em relação a conteúdos gerados por IA sobre guerras ou crises geopolíticas. O conselho defende que, nesses casos, o material deveria receber um aviso de alto risco, indicando claramente sua origem artificial.
Além disso, especialistas apontaram que o modelo atual da Meta depende excessivamente da ação dos próprios usuários para identificar conteúdos problemáticos. Atualmente, a plataforma se baseia principalmente em duas formas de verificação: quando o autor do conteúdo declara o uso de inteligência artificial ou quando alguém denuncia o material à equipe de moderação.
Escala do problema preocupa especialistas
O conselho alertou que essa abordagem não é suficiente para lidar com a velocidade e o volume de conteúdos criados por ferramentas de IA.
O grupo destacou a necessidade de rotular vídeos artificiais com maior frequência e de forma proativa, especialmente em períodos de crise ou conflito, quando o engajamento nas redes sociais tende a aumentar significativamente.
Segundo o relatório, o sistema atual da Meta não é robusto nem abrangente o suficiente para acompanhar a escala da produção de conteúdo gerado por inteligência artificial.
A Meta lançou o Oversight Board em 2020 com o intuito de criar uma instância semiautônoma para revisar decisões de moderação em plataformas como Facebook, Instagram e WhatsApp. Embora o conselho critique frequentemente as decisões da empresa, analistas questionam a real influência de suas recomendações nas políticas da companhia.
