Meta enfrenta críticas por ineficiência no combate a vídeos falsos gerados por inteligência artificial

Compartilhe essa Informação

Meta é alertada sobre a necessidade de reforçar a moderação de vídeos gerados por inteligência artificial.

A disseminação de vídeos falsos criados com inteligência artificial (IA) nas redes sociais está suscitando preocupações sobre a eficácia da moderação de conteúdo. Um conselho independente que supervisiona as decisões da Meta enfatizou a urgência de aprimorar os mecanismos de controle da empresa diante do aumento desse tipo de material em suas plataformas.

O Oversight Board, órgão criado pela Meta para revisar suas políticas de moderação, criticou a empresa por manter um vídeo gerado por IA que mostrava supostos danos na cidade de Haifa, em Israel, atribuídos a ataques iranianos, sem qualquer aviso sobre a artificialidade do conteúdo.

De acordo com especialistas, essa situação evidencia falhas na abordagem da Meta em relação a conteúdos manipulados em contextos de conflitos armados, especialmente em períodos de intensa circulação de informações nas redes sociais.

O conselho recomendou uma revisão das políticas que regulam o uso de inteligência artificial nas plataformas da Meta. A crescente produção de vídeos falsos relacionados a guerras e crises internacionais já está prejudicando a capacidade do público de distinguir entre fatos e informações fabricadas digitalmente.

Na avaliação do grupo, a falta de mecanismos mais robustos pode resultar em uma crise de confiança generalizada em relação à veracidade das informações publicadas online.

A Meta anunciou que irá adicionar um rótulo ao vídeo em questão dentro de sete dias e se comprometeu a seguir as recomendações em casos semelhantes no futuro.

Caso começou com vídeo viral

A análise do conselho foi motivada por um vídeo viral publicado em junho do ano passado por uma página do Facebook nas Filipinas, que se apresentava como um veículo de notícias. O material mostrava cenas de destruição em Haifa, supostamente causadas por forças iranianas.

Verificações posteriores revelaram que as imagens eram falsas e haviam sido criadas com ferramentas de inteligência artificial.

Esse conteúdo fazia parte de uma série de vídeos manipulados que circularam nas redes sociais após o início do conflito, com narrativas que variavam entre favoráveis a Israel e alinhadas ao Irã. Uma análise indicou que esse tipo de material acumulou pelo menos 100 milhões de visualizações em diversas plataformas.

Apesar das reclamações de usuários e da confirmação de que o vídeo não retratava eventos reais, a Meta inicialmente optou por não rotular nem remover o conteúdo.

Critério considerado insuficiente

Em resposta às críticas, a Meta argumentou que o vídeo não precisava de aviso, pois não representava um risco imediato de dano físico.

No entanto, o Oversight Board considera que esse critério é excessivamente restritivo em relação a conteúdos gerados por IA sobre guerras ou crises geopolíticas. O conselho defende que, nesses casos, o material deveria receber um aviso de alto risco, indicando claramente sua origem artificial.

Além disso, especialistas apontaram que o modelo atual da Meta depende excessivamente da ação dos próprios usuários para identificar conteúdos problemáticos. Atualmente, a plataforma se baseia principalmente em duas formas de verificação: quando o autor do conteúdo declara o uso de inteligência artificial ou quando alguém denuncia o material à equipe de moderação.

Escala do problema preocupa especialistas

O conselho alertou que essa abordagem não é suficiente para lidar com a velocidade e o volume de conteúdos criados por ferramentas de IA.

O grupo destacou a necessidade de rotular vídeos artificiais com maior frequência e de forma proativa, especialmente em períodos de crise ou conflito, quando o engajamento nas redes sociais tende a aumentar significativamente.

Segundo o relatório, o sistema atual da Meta não é robusto nem abrangente o suficiente para acompanhar a escala da produção de conteúdo gerado por inteligência artificial.

A Meta lançou o Oversight Board em 2020 com o intuito de criar uma instância semiautônoma para revisar decisões de moderação em plataformas como Facebook, Instagram e WhatsApp. Embora o conselho critique frequentemente as decisões da empresa, analistas questionam a real influência de suas recomendações nas políticas da companhia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *