Trailers de Vingadores criados por IA se tornam indistinguíveis dos originais, confirmando previsão de Scorsese
YouTube encerra canais de trailers gerados por IA após controvérsias e desinformação.
Recentemente, o YouTube tomou a decisão de encerrar permanentemente os canais Screen Culture e KH Studio, que juntos acumulavam mais de 2 milhões de inscritos e um bilhão de visualizações. Esses canais se destacaram por produzir trailers gerados por inteligência artificial que eram tão convincentes que se tornaram indistinguíveis de materiais promocionais oficiais.
O fenômeno se intensificou com o lançamento de “Vingadores: Doutor Destino”, onde a linha entre o autêntico e o sintético se tornou quase imperceptível. A Marvel adotou uma estratégia de divulgação que consistia em lançar quatro teasers exclusivos do filme, um por semana, cada um focando em personagens diferentes. Essa abordagem gerou um ambiente propício para a confusão, uma vez que não havia distribuição online oficial dos trailers.
Com a falta de informações claras, a inteligência artificial generativa começou a prosperar, criando imagens e clipes que apresentavam Doutor Destino de maneiras surpreendentes, como um “clone de Stark”. Esses conteúdos, que incluíam deepfakes impressionantes, enganaram até mesmo os olhares mais críticos.
Um estudo recente revelou que mais da metade da população pode ser enganada por vídeos alterados digitalmente. Além disso, ferramentas de detecção de deepfakes enfrentam dificuldades para identificar manipulações que não estão dentro de seus dados de treinamento. Essa situação alimentou a proliferação de trailers e imagens falsas, com um aumento significativo de conteúdos gerados por IA nas redes sociais.
Curiosamente, a Marvel não precisou da intervenção da IA para se tornar um conteúdo sintético, pois sua abordagem já a tornava um produto de engenharia que carecia do componente humano essencial para o cinema. A produção de filmes da Marvel, caracterizada por mudanças de última hora e a utilização de efeitos digitais, exemplifica essa transformação.
Um exemplo marcante de desinformação ocorreu durante a promoção de “Homem-Aranha: Sem Volta para Casa”, onde imagens vazadas de Tobey Maguire e Andrew Garfield geraram grande especulação. Apesar das negações de Garfield sobre sua participação, um YouTuber acabou criando um deepfake, apenas para depois admitir que o material original era autêntico. A Sony, ao aplicar notificações de direitos autorais, confirmou indiretamente a veracidade do conteúdo vazado, deixando os fãs em dúvida por meses.
Pesquisas sobre fandoms mostram que a busca por pertencimento impulsiona a disseminação de desinformação, enquanto algoritmos priorizam popularidade em vez da qualidade das informações. Isso resultou em um mercado de atenção onde a fabricação de conteúdo sintético gera mais engajamento do que a verificação de sua autenticidade.
O fechamento dos canais Screen Culture e KH Studio ocorreu após um conflito que começou com a desmonetização dos canais. Para reverter a situação, os criadores adicionaram etiquetas como “trailer de fã” e “paródia” aos seus vídeos, mas continuaram a produzir trailers falsos que muitas vezes superavam os conteúdos oficiais em visualizações.
Uma investigação revelou que estúdios como Warner e Sony solicitaram ao YouTube que a receita publicitária dos vídeos gerados por IA fosse devolvida a eles, destacando um aspecto ético questionável nessa prática. O YouTube, que havia tolerado a proliferação de conteúdo sintético por anos, só tomou medidas após uma notificação extrajudicial da Disney, proprietária da Marvel.
