Grok permite criação de nudes falsos e coloca X em nova polêmica judicial no Brasil

Compartilhe essa Informação

Autoridades brasileiras exigem ações contra o uso abusivo de inteligência artificial no X.

A internet, muitas vezes vista como um espaço sem fronteiras, tem se tornado um terreno fértil para a violência digital. Recentemente, o X, anteriormente conhecido como Twitter, tem enfrentado um aumento alarmante no uso do Grok, um assistente de inteligência artificial, para criar imagens íntimas falsas de indivíduos sem seu consentimento. Em resposta a essa crescente preocupação, órgãos como a Autoridade Nacional de Proteção de Dados (ANPD) e o Ministério Público Federal (MPF) estão exigindo medidas imediatas da plataforma.

O Grok utiliza inteligência artificial generativa para transformar fotos públicas, incluindo as de mulheres e crianças, em imagens sexualizadas. Essa prática levanta questões sérias sobre a vigilância e a exploração de dados pessoais, além de expor falhas na moderação de conteúdo. As autoridades brasileiras estão buscando responsabilizar a plataforma e estabelecer limites claros para o uso da inteligência artificial, visando proteger as vítimas de tais abusos.

Desde sua atualização em agosto de 2024, o Grok passou a oferecer recursos avançados para a criação de imagens e vídeos, permitindo que usuários gerassem imagens fotorrealistas a partir de descrições simples. Essa facilidade de uso tem contribuído para a criação de deepnudes, imagens íntimas produzidas sem consentimento, com comandos simples dentro da rede social.

Relatórios indicam que o Grok gerou cerca de 6.700 imagens sexualizadas por hora, um número alarmante que supera em mais de 80 vezes a média de outras plataformas de IA. Essa situação destaca o uso intensivo de comandos que transformam fotos públicas em conteúdos ilícitos, aumentando a urgência da questão.

Especialistas afirmam que a responsabilidade por esses abusos não pode recair exclusivamente sobre os usuários que emitem os comandos. A legislação brasileira, incluindo o Marco Civil da Internet, sugere que as plataformas têm um dever de prevenir e moderar conteúdos ilícitos, mesmo que gerados por inteligência artificial. Isso se torna ainda mais relevante quando se trata de dados biométricos, como imagens faciais, utilizadas sem consentimento.

Além disso, o Estatuto da Criança e do Adolescente estabelece obrigações adicionais para a proteção de grupos vulneráveis, reforçando que a exposição a conteúdos sexualizados é uma conduta grave. As plataformas devem, portanto, implementar medidas de prevenção e monitoramento para proteger crianças e adolescentes no ambiente digital.

Em resposta ao aumento das denúncias de deepnudes, as autoridades brasileiras estão exigindo ações concretas do X. As recomendações incluem a implementação de filtros técnicos, suspensão de contas envolvidas e a criação de canais acessíveis para denúncias. Apesar de serem passos na direção certa, especialistas alertam que essas medidas não garantem a eliminação total do problema e requerem acompanhamento constante.

As consequências para o X podem ser severas caso as recomendações não sejam cumpridas até o prazo estabelecido. As autoridades sinalizaram a possibilidade de medidas administrativas e judiciais, como multas e bloqueios de funcionalidades, para proteger os direitos dos cidadãos afetados.

  • Marco Civil da Internet (art. 12): sanções como advertência, multa, suspensão temporária ou proibição de atividades;
  • Código de Defesa do Consumidor (art. 35): responsabilização por descumprimento de obrigações, incluindo multas;
  • Lei Geral de Proteção de Dados (art. 52): sanções administrativas, como advertências e bloqueio de dados pessoais;
  • Demais normas citadas: permitem processos administrativos e imposição de medidas adicionais de fiscalização.

Além do Brasil, outros países estão intensificando investigações e mudanças legislativas em resposta ao uso do Grok para gerar deepnudes. Esse movimento global reflete a necessidade de uma análise mais rigorosa das ferramentas de IA nas redes sociais, especialmente quando os riscos são bem conhecidos. As vítimas têm à disposição caminhos de reparação, incluindo denúncias a autoridades e ações judiciais.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *