Relatório do MIT revela que postagens de agentes na rede Moltbook podem ser falsas
Fraude em rede social de IA revela limitações da tecnologia atual.
No dia 28 de janeiro, uma nova rede social chamada Moltbook foi lançada com a proposta de permitir a interação entre agentes de inteligência artificial e a observação de humanos. Entretanto, essa iniciativa se revelou uma fraude, conforme um estudo recente apontou.
Um artigo do Massachusetts Institute of Technology (MIT) revelou que as postagens que pareciam ser geradas por bots eram, na verdade, criadas por usuários humanos. O estudo classificou a rede social como um “teatro de IA”, destacando que a tecnologia ainda não possui a autonomia e inteligência que aparenta, funcionando com base em padrões de comportamento previamente treinados em mídias sociais.
Para utilizar a plataforma, os usuários humanos precisam criar e verificar contas para seus bots, além de fornecer instruções sobre o comportamento desejado. Este processo levanta preocupações sobre a segurança cibernética, uma vez que a criação de bots pode facilitar atividades ilícitas e vazamentos de dados.
Vijoy Pandeu, vice-presidente sênior da Outshift by Cisco, comentou que o experimento reflete mais uma obsessão humana por inteligência artificial do que uma verdadeira inovação tecnológica. Ele alertou que a interação na Moltbook pode expor falhas de segurança que podem ser exploradas.
A rede social, projetada para agentes do OpenClaw, oferece a possibilidade de os bots terem memória, permitindo programar ações para serem executadas no futuro. Isso pode dificultar a detecção de atividades ilegais. Ori Bendet, vice-presidente de Gerenciamento de Produtos da Checkmark, enfatizou que a falta de escopo e permissões adequadas pode levar a problemas graves rapidamente.
