TikTok e Meta priorizaram engajamento em detrimento da segurança, afirmam ex-funcionários

Compartilhe essa Informação

Denunciantes revelam práticas arriscadas de redes sociais em busca de engajamento

Denunciantes de grandes redes sociais expuseram como essas empresas priorizaram o engajamento em detrimento da segurança dos usuários, permitindo a disseminação de conteúdo nocivo.

Mais de uma dúzia de ex-funcionários e denunciantes relataram que, mesmo após a identificação de riscos, como violência e terrorismo, as plataformas continuaram a exibir conteúdos prejudiciais para manter a atenção dos usuários.

Um engenheiro da Meta, controladora do Facebook e Instagram, revelou que a alta administração incentivou a inclusão de conteúdo “limítrofe”, como misoginia e teorias da conspiração, para competir com o TikTok. Essa decisão foi motivada pela queda nos preços das ações da empresa.

“Eles basicamente nos disseram que era porque o preço das ações estava em queda”, afirmou o engenheiro.

Um funcionário do TikTok também forneceu informações sobre a priorização de casos envolvendo figuras políticas, em detrimento de denúncias que afetavam crianças. Essa estratégia visava manter relações fortes com políticos e evitar regulações, não considerando os riscos aos usuários.

Os denunciantes, que participaram do documentário “Inside the Rage Machine”, discutiram como o crescimento explosivo do TikTok forçou as redes sociais a adaptar suas estratégias, levando a um aumento do conteúdo prejudicial.

Matt Motyl, pesquisador da Meta, destacou que o Instagram Reels foi lançado sem as devidas proteções, resultando em uma maior prevalência de bullying e discurso de ódio em comparação com outras partes da plataforma. Essa falta de segurança foi associada à pressão por engajamento.

“A empresa investiu na contratação de 700 funcionários para expandir o Reels, enquanto equipes de segurança tiveram negada a contratação de especialistas”, disse um ex-funcionário.

Motyl apresentou documentos que demonstravam a consciência da Meta sobre os danos causados por seu algoritmo, que priorizava o lucro em detrimento do bem-estar dos usuários. Um estudo interno indicou que o algoritmo favorecia conteúdo que gerava indignação, resultando em um ciclo de engajamento prejudicial.

Os algoritmos das redes sociais são descritos como “caixas-pretas”, dificultando a avaliação de seu funcionamento. Ruofan Ding, ex-engenheiro do TikTok, afirmou que os engenheiros não têm controle total sobre o algoritmo, que prioriza o engajamento em vez da segurança do conteúdo.

Conteúdo limítrofe é um termo usado para descrever publicações prejudiciais que não violam as regras, como postagens misóginas e teorias conspiratórias.

Adolescentes relataram que as ferramentas para evitar conteúdo problemático não funcionam, continuando a receber recomendações de violência e discurso de ódio. Um jovem afirmou ter sido “radicalizado pelo algoritmo”, que o expôs a conteúdos que reforçavam suas visões extremistas.

Especialistas em antiterrorismo no Reino Unido notaram um aumento na normalização de postagens violentas e extremistas nas redes sociais, indicando uma dessensibilização do público em relação à violência.

Nick, um membro da equipe de segurança do TikTok, revelou que a quantidade de casos analisados era excessiva, comprometendo a segurança de adolescentes e crianças. Cortes e mudanças nas equipes de moderação afetaram a capacidade da empresa de lidar com conteúdo nocivo.

Nick também apresentou evidências de que casos políticos recebiam prioridade em relação a denúncias de danos a jovens, refletindo uma preocupação maior com a imagem da empresa do que com a segurança dos usuários.

“Se você olha o país de onde vem esse relato, é de altíssimo risco porque envolve um menor e chantagem sexual. Mas, a prioridade não é alta”, disse Nick sobre um caso específico.

Nick concluiu que a empresa valoriza mais as relações com políticos do que a segurança de seus usuários, especialmente crianças. Ele aconselhou os pais a manterem seus filhos afastados do TikTok.

Em resposta às alegações, a Meta e o TikTok negaram que priorizassem conteúdo político em detrimento da segurança, afirmando que investem em tecnologia e têm políticas rigorosas para proteger os usuários.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *