Brasil define regulamentação para inteligência artificial e estabelece limites ao seu uso
A regulamentação da inteligência artificial no Brasil se torna prioridade legislativa em 2023.
A fase final de tramitação do projeto de lei nº 2.338/2023 posiciona a inteligência artificial como um dos principais temas políticos para 2026. Com o início do ano legislativo, o presidente da Câmara dos Deputados, Hugo Motta, destacou que a discussão sobre o tema é prioridade absoluta para fevereiro, antes que as articulações eleitorais de outubro dominem a pauta. O debate transcende questões técnicas, envolvendo poder institucional, soberania regulatória e controle democrático.
Ao optar por uma lei geral de inteligência artificial fundamentada em riscos, o Brasil se coloca de maneira clara no contexto internacional. Essa abordagem aproxima o país da União Europeia, distanciando-o da fragmentação observada nos Estados Unidos e rejeitando o controle estatal amplo praticado pela China. Essa decisão molda a maneira como o Estado brasileiro pretende exercer sua autoridade em um ambiente cada vez mais automatizado.
O texto que será apresentado no plenário não se resume ao “PL da IA”. Trata-se de um substitutivo elaborado pelo senador Eduardo Braga, inspirado no Artificial Intelligence Act europeu, mas adaptado à realidade brasileira. O projeto também se tornou uma vitrine política para o senador Rodrigo Pacheco, que busca um equilíbrio entre a modernização do Estado e a governança digital.
A definição de inteligência artificial adotada pelo Brasil segue os parâmetros da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), com ênfase em sistemas autônomos e adaptativos. A União Europeia aplica uma lógica semelhante no AI Act, que está em vigor desde 2025. Em contraste, os Estados Unidos ainda não possuem uma definição federal unificada, regulando o assunto por meio de ordens executivas e iniciativas dispersas de agências como a Federal Trade Commission e o Department of Justice. A China, por sua vez, concentra sua regulação em algoritmos de recomendação e controle de conteúdo, visando a estabilidade política do regime.
O Marco Legal brasileiro centraliza a fiscalização na Autoridade Nacional de Proteção de Dados, em um arranjo similar ao AI Office europeu. Nos Estados Unidos, a fragmentação regulatória gera insegurança jurídica, enquanto na China a governança algorítmica é controlada por órgãos de segurança do Estado, com baixa transparência e ausência de controle externo efetivo. No modelo brasileiro, ao menos no plano normativo, tanto o mercado quanto o Estado estão sujeitos à fiscalização.
Essa estrutura institucional reflete-se na proteção de direitos. O texto proíbe o ranqueamento social de cidadãos, assegura o direito à explicação e à revisão humana de decisões automatizadas, além de inverter o ônus da prova em casos de discriminação algorítmica. Esses mecanismos estão alinhados com a experiência europeia, enquanto nos Estados Unidos esses direitos não são estruturados em nível federal. Na China, sistemas de pontuação e vigilância fazem parte da política pública.
A maneira como o Estado utiliza a inteligência artificial determina o alcance real da democracia.
O impacto político é evidente na segurança pública. O uso de reconhecimento facial em espaços públicos é permitido no Brasil apenas em situações restritas, como crimes graves e pessoas desaparecidas, sempre sob supervisão judicial. A União Europeia está avançando para um banimento quase total dessa tecnologia, enquanto a China a utiliza de forma ampla e contínua. Nos Estados Unidos, o cenário é fragmentado, com algumas cidades proibindo a ferramenta e o governo federal a utilizando em fronteiras. No Brasil, a regulamentação busca equilibrar a eficiência estatal e o risco de aprofundamento de vieses estruturais.
No sistema de justiça, o Marco Legal classifica sistemas decisórios como de alto risco e proíbe a delegação integral de atos jurisdicionais à inteligência artificial. A automação pode auxiliar os magistrados, mas não substituir a decisão humana. Essa opção contrasta com a experiência chinesa dos chamados smart courts e aborda um dilema democrático central: eficiência versus devido processo legal. O ato de julgar permanece sendo uma função humana.
A urgência do tema aumenta em um ano pré-eleitoral. A regulação de conteúdos sintéticos e deepfakes alinha o Brasil à União Europeia e à China, que exigem rotulagem obrigatória, distanciando-o dos Estados Unidos, onde acordos voluntários ainda predominam. No contexto brasileiro, a escolha incorpora resoluções do Tribunal Superior Eleitoral ao texto legal, reconhecendo que a desinformação algorítmica representa uma ameaça direta ao processo democrático.
Além disso, um fator econômico pressiona o Congresso. Estudos indicam que a falta de um marco regulatório claro tem reprimido bilhões de
