Agente de IA humanizado aumenta vulnerabilidade a ataques de engenharia social, revela F5
Empresas enfrentam novos desafios com a evolução dos agentes de IA em 2026.
Em 2026, as empresas que implementarem agentes de inteligência artificial (IA) em seus canais de comunicação se depararão com um dilema crescente. Embora a maioria dos consumidores, cerca de 87%, prefira experiências personalizadas por meio da IA, há preocupações significativas sobre a segurança desses sistemas.
Um estudo recente revela que quanto mais humanizados são os agentes, maior a vulnerabilidade em relação a políticas de segurança. A combinação de modelos de IA avançados e táticas de grupos criminosos representa um risco real. Organizações têm desenvolvido agentes com base no modelo OCEAN, que identifica cinco traços de personalidade, enquanto criminosos utilizam essas IAs para se passar por clientes e obter informações sensíveis.
Roberto Ricossa, vice-presidente da F5 América Latina, destaca que estamos testemunhando uma evolução nos agentes de IA, capazes de simular vozes e reações humanas. Essa capacidade é explorada em ataques de engenharia social, onde agentes maliciosos imitam comportamentos humanos para manipular a tecnologia das empresas.
Esses ataques utilizam técnicas de neurolinguística e psicologia social, permitindo que os agentes criminosos criem brechas no raciocínio da IA corporativa. O fenômeno é descrito como “Sequestro de Objetivos do Agente”, onde a IA é induzida a agir de forma insegura e fora de conformidade.
A vulnerabilidade da IA reside na sua incapacidade de pensar criticamente, tornando-a suscetível a raciocínios falhos que podem ser explorados por criminosos. Isso abre oportunidades para a extração de informações, compras fraudulentas e solicitações indevidas de descontos, entre outras possibilidades.
Apesar das preocupações, o estudo realizado não quantificou a frequência com que essas práticas têm sido utilizadas. No entanto, a F5 está investindo em soluções para ajudar seus clientes a se protegerem, como o F5 AI Guardrails, que analisa interações com agentes de IA para garantir a conformidade com as políticas de segurança.
Esse sistema monitora a comunicação e valida cada interação, ajustando-se às necessidades específicas de cada organização. A proposta é garantir que os prompts sejam examinados dentro do contexto e da terminologia de cada empresa, um aspecto que se tornará cada vez mais relevante, assim como ocorreu com a adoção da nuvem.
No Brasil, a F5 planeja expandir seus serviços, especialmente no mercado financeiro, varejo e setor governamental. O país é reconhecido como um grande desenvolvedor de software, o que aumenta a demanda por soluções de proteção. A adoção de IA já é uma realidade para 75% dos clientes da F5, que implementaram alguma forma de tecnologia nos últimos anos.
Para o futuro, espera-se que os agentes de IA se tornem fundamentais nas operações das empresas. Projeções indicam que, até 2035, 30% dos investimentos em software corporativo serão direcionados ao uso de agentes de IA. Essa autonomia dos agentes torna a proteção desse ativo essencial para a continuidade e segurança dos negócios.
