UNICEF alerta para nova onda de abuso digital com deepfakes sexualizados envolvendo crianças

Compartilhe essa Informação

Alerta sobre o uso de inteligência artificial na criação de imagens sexualizadas de crianças.

A disseminação de imagens sexualizadas de crianças geradas ou manipuladas por inteligência artificial (IA) está se consolidando como uma das ameaças mais graves do ambiente digital. Um novo alerta indica que a velocidade desse tipo de abuso supera a capacidade de resposta das legislações e dos sistemas de proteção em diversos países.

Dados revelam que pelo menos 1,2 milhão de crianças e adolescentes relataram, apenas no último ano, que suas imagens foram usadas para a criação de deepfakes com conteúdo sexual. O estudo analisou a situação em 11 países e revela um cenário alarmante: em algumas regiões, o problema atinge o equivalente a uma em cada 25 crianças, número que representa ao menos um aluno por sala de aula.

Os deepfakes são imagens, vídeos ou áudios criados ou alterados com o uso de IA para parecerem reais. No caso das crianças, a tecnologia tem sido utilizada para produzir material sexualizado falso, frequentemente através de ferramentas conhecidas como “nudificação”. Esses sistemas removem ou modificam roupas em fotografias comuns, gerando imagens artificiais de nudez ou conotação sexual sem qualquer consentimento.

Dano imediato e direto

Quando a imagem de uma criança real é utilizada, o dano é direto e imediato. Mesmo nos casos em que o conteúdo é totalmente sintético, sem uma vítima identificável, o impacto permanece grave. A normalização desse tipo de material contribui para alimentar a exploração sexual infantil, ampliando a demanda por conteúdos abusivos e criando obstáculos adicionais para autoridades e investigadores, que enfrentam volumes maiores de material ilícito e maior dificuldade de rastreamento.

O avanço rápido dessas práticas ocorre em um contexto de expansão acelerada das ferramentas de IA generativa, muitas delas integradas a plataformas digitais e redes sociais. Essa combinação facilita a criação e a disseminação de imagens manipuladas em larga escala, tornando o controle e a remoção reativa insuficientes para conter o problema.

Crianças e adolescentes demonstram elevada consciência dos riscos associados ao uso indevido da IA. Em alguns dos países analisados, até dois terços dos jovens entrevistados afirmaram temer que a tecnologia seja usada para criar imagens ou vídeos sexuais falsos envolvendo suas identidades.

A resposta atual ainda é desigual. Embora algumas empresas de tecnologia adotem abordagens de “segurança desde a concepção”, com salvaguardas para evitar o uso abusivo de seus modelos, grande parte das soluções disponíveis carece de mecanismos eficazes de prevenção. O risco se intensifica quando essas ferramentas são incorporadas diretamente a plataformas de grande alcance, onde o conteúdo pode se espalhar rapidamente.

Diante desse cenário, são necessárias ações imediatas e coordenadas. Entre as principais recomendações estão a ampliação das definições legais de material de abuso sexual infantil para incluir conteúdos gerados por IA, a criminalização de sua produção, posse e distribuição, e o fortalecimento das obrigações das empresas digitais para impedir a circulação desse tipo de material, não apenas removê-lo após a denúncia.

Além disso, destaca-se a necessidade de investimentos em tecnologias de detecção, políticas públicas de prevenção e campanhas de conscientização. A recente atualização das diretrizes sobre inteligência artificial e direitos da criança apresenta orientações para governos, desenvolvedores e plataformas digitais.

O impacto dos deepfakes sexualizados é concreto, atual e profundamente danoso. A proteção das crianças no ambiente digital exige que legislação, tecnologia e responsabilidade corporativa avancem no mesmo ritmo da inovação.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *