Influenciadora especializada em ética de inteligência artificial tem contas nas redes sociais suspensas
Catharina Doria enfrenta problemas com contas de redes sociais após abordar ética em inteligência artificial.
Catharina Doria conquistou uma audiência de quase 600 mil seguidores nas redes sociais ao compartilhar vídeos curtos que ensinam como distinguir imagens reais de aquelas geradas por inteligência artificial.
Além disso, ela orientou pais sobre a importância de não postarem fotos de seus filhos nas redes e discutiu outros aspectos relevantes da tecnologia.
Recentemente, Doria teve duas contas suspensas sob a alegação de violação das diretrizes da Meta, empresa responsável pelo Instagram, o que gerou preocupação sobre os limites da decisão automatizada.
Ela expressou sua frustração ao afirmar que, como especialista em IA ética, é irônico que uma inteligência artificial possa prejudicar sua carreira. “Influencer de IA ética é banida por IA”, relatou.
No final de março, Catharina adotou uma cadela resgatada e criou um perfil dedicado ao animal, @misspetuniathechi. No entanto, a conta foi suspensa imediatamente após a criação, sem que qualquer conteúdo tivesse sido postado.
“No momento em que eu cliquei para criar a conta, eu recebi uma notificação de que a minha conta tinha sido banida por ir contra as diretrizes da comunidade”, relata. “Mas não deu nem tempo de postar uma foto, nem nada. É como se a conta tivesse nascido morta.”
Após a suspensão, Catharina enviou um documento de identidade para contestar a decisão, mas recebeu uma resposta informando que o documento foi recusado sem explicações. Posteriormente, a conta foi desativada.
Em maio, ela foi informada sobre a suspensão de uma segunda conta, @theaisurvivalclub, que discute letramento crítico em inteligência artificial. A justificativa foi a associação com outra conta que teria infringido as regras da plataforma.
Doria ressaltou que seu trabalho e credibilidade dependem dessas contas, e a possibilidade de uma inteligência artificial impactar sua renda é alarmante.
Embora sua conta principal permaneça ativa, ela teme que também seja desativada devido às diretrizes que recebeu da Meta.
Procurada, a Meta não se manifestou e não esclareceu se houve revisão humana das decisões tomadas.
‘O algoritmo erra em escala’
O advogado e pesquisador Caio Vieira Machado, de Harvard, destaca a necessidade de transparência nas decisões automatizadas. Ele afirma que as pessoas devem ter o direito de entender os motivos por trás das suspensões.
“O algoritmo deles pode ter detectado algo estranho e, a partir disso, ter sinalizado que a conta, de repente, está espalhando um conteúdo de nudez, espalhando desinformação…”, afirma.
Machado observa que a falta de clareza sobre como os algoritmos funcionam resulta em um serviço inconsistente para os usuários. Erros em larga escala podem afetar milhões de publicações diariamente.
Ele defende a necessidade de revisão humana para corrigir possíveis falsos positivos gerados pelos sistemas automatizados.
Embora a Lei Geral de Proteção de Dados (LGPD) permita que cidadãos solicitem a revisão de decisões automatizadas, na prática, os revisores são frequentemente sobrecarregados e têm pouco tempo para avaliar adequadamente cada caso.
