Máquinas também precisam aprender a esquecer

Compartilhe essa Informação

A discussão sobre o direito ao esquecimento se expande para a era digital e suas implicações éticas.

A internet se tornou um repositório permanente de informações, onde até os momentos mais embaraçosos podem ser acessados a qualquer momento. Essa realidade levanta questões sobre o direito ao esquecimento, um conceito que, ao longo da história, era mais simples de ser aplicado, mas que hoje exige uma abordagem mais complexa.

No Brasil, o Supremo Tribunal Federal (STF) tratou dessa questão ao julgar o Tema 786, que envolveu a reexibição de um crime antigo em um programa de televisão. O tribunal se deparou com a difícil questão de se um indivíduo poderia barrar a divulgação de informações verdadeiras apenas pelo fato de que o tempo havia passado.

A resposta do STF foi clara: não existe o direito ao esquecimento que impeça a circulação de informações legítimas. A decisão enfatizou que tal prerrogativa é incompatível com a Constituição brasileira, priorizando a liberdade de expressão e a memória coletiva sobre a vontade individual de apagar eventos passados.

Entretanto, essa decisão não previu o impacto das novas tecnologias, que podem oferecer soluções alternativas. Modelos de linguagem de grande escala, como o ChatGPT, complicam a discussão sobre a exclusão de dados, pois não funcionam como bancos de dados tradicionais. Eles não armazenam informações de forma recuperável, mas sim aprendem com elas, criando padrões complexos.

A capacidade das máquinas de aprender e, eventualmente, “desaprender” redefine as fronteiras entre memória, privacidade e liberdade de informação. Este fenômeno levanta novas preocupações sobre como tratar informações problemáticas que esses sistemas de IA podem ter assimilado.

As soluções atuais para lidar com dados problemáticos, conforme observado por especialistas, são muitas vezes inadequadas. As opções incluem excluir completamente o modelo, retreiná-lo do zero ou bloquear certas saídas. No entanto, a última alternativa é mais uma medida paliativa, já que um prompt criativo pode facilmente contorná-la.

É nesse contexto que o Machine Unlearning (MU) surge como uma proposta inovadora. Este campo de pesquisa busca ensinar modelos a esquecer dados específicos sem a necessidade de um retreinamento completo. O MU oferece uma abordagem mais eficaz, permitindo a indisponibilidade efetiva de informações, algo que antes era considerado apenas ficção científica.

Por um lado, o MU pode ser uma ferramenta valiosa para proteger a privacidade e os direitos de propriedade intelectual em sistemas de IA. Por outro lado, essa mesma capacidade de apagar informações pode ser utilizada para eliminar verdades inconvenientes.

Os riscos éticos associados ao MU são significativos. O mau uso dessa tecnologia pode se transformar em um instrumento de censura nas mãos de quem controla os modelos. Além disso, a facilidade de “desaprender” pode incentivar práticas irresponsáveis na coleta de dados, levando à suposição de que problemas podem ser corrigidos posteriormente. Por fim, a falta de uso do MU pode resultar na manutenção de soluções menos eficazes, como o bloqueio simples.

A discussão sobre o direito ao esquecimento agora abrange não apenas a memória humana, mas também a memória artificial, levantando questões sobre quem decide o que deve ser preservado ou apagado nas máquinas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *