Acesso ao Atendimento Humano Ganha Destaque nas Relações de Consumo
Automatização no atendimento gera aumento de reclamações e desafios legais no Brasil.
A substituição do atendimento humano por sistemas automatizados se tornou uma prática comum em setores como bancos e telecomunicações. As empresas promovem essa mudança com a promessa de eficiência operacional.
No entanto, dados do Sistema Nacional de Informações de Defesa do Consumidor (Sindec) revelam uma realidade preocupante. Em 2025, cerca de 40% das reclamações nas capitais brasileiras estavam relacionadas a problemas de atendimento e falta de retorno por parte das empresas.
Esse panorama se choca com as novas regulamentações que estão sendo implementadas. O projeto de lei nº 2338/2023, conhecido como Marco Legal da Inteligência Artificial, foi aprovado no Senado e passou a orientar o ambiente regulatório, estabelecendo diretrizes que visam garantir direitos dos consumidores.
Entre os principais pontos estão o direito à revisão humana e a obrigação de transparência em sistemas considerados de alto risco. O silenciamento algorítmico, antes visto como uma falha operacional, agora é considerado uma violação legal.
A atualização do Decreto do Serviço de Atendimento ao Consumidor (SAC) reforça essa perspectiva. As novas diretrizes, implementadas pela Secretaria Nacional do Consumidor (Senacon), proíbem o encerramento automático de atendimentos por inteligência artificial sem que o serviço tenha sido concluído ou que o cliente tenha sido transferido a um atendente humano.
A tecnologia deve facilitar a resolução de problemas, e não criar barreiras ao diálogo. Quando o atendimento se torna um teste de resistência, a eficiência prometida se transforma em abuso de direito algorítmico.
A utilização indiscriminada de IA no atendimento ao cliente tem gerado um aumento nas reclamações, ações judiciais e violações dos direitos previstos no novo marco regulatório. A adoção acelerada de IA generativa, que aprende com cada interação, eleva os riscos e as frustrações dos consumidores.
Muitas empresas estão priorizando o treinamento de modelos de IA em detrimento do atendimento humano, resultando em um cenário onde o consumidor se depara com uma máquina que possui todos os dados, mas nenhuma autoridade para resolver conflitos. Essa situação representa um aumento da vulnerabilidade do consumidor.
O impacto dessa abordagem já se reflete no Judiciário. A Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ) estabelece parâmetros para o uso de IA nos tribunais, influenciando a maneira como magistrados lidam com empresas que escondem atendentes humanos atrás de sistemas automatizados ineficazes.
Esse cenário tem gerado um aumento no número de ações judiciais de baixa complexidade, especialmente contra os setores bancário e de telecomunicações, que são historicamente os mais reclamados. Cada processo judicial é fruto de um atendimento que falhou desde o início.
O custo desse modelo de atendimento automatizado é coletivo. A eficiência prometida se transforma em passivo jurídico, desgaste da reputação e sobrecarga institucional. Embora a redução de custos operacionais possa parecer vantajosa no curto prazo, a longo prazo isso resulta em litígios, desorganização do mercado e perda da confiança do consumidor.
Esse uso distorcido da tecnologia vai na contramão da Estratégia Brasileira de Inteligência Artificial (EBIA) e do plano IA para o Bem de Todos, que visam promover inovações alinhadas ao interesse público. Utilizar robôs para evitar o atendimento humano não é inovação, mas sim um abuso de direito algorítmico.
É importante lembrar que nenhum algoritmo pode compreender a urgência de um cartão roubado ou a angústia de um benefício bloqueado. No Brasil de 2026, a tecnologia deve ser utilizada para facilitar a solução de problemas, e não para perpetuar o descaso. A transferência para um atendente humano não deve ser vista como um custo, mas como uma garantia de que os direitos do consumidor continuam a ser respeitados, mesmo em um ambiente digital.
