Inteligência artificial privada: conversas com chatbots podem ser comercializadas em um mercado bilionário de dados

Compartilhe essa Informação

Estudo revela riscos ocultos na privacidade de chats com IA

Muitos usuários têm utilizado assistentes pessoais como ChatGPT, Claude, Grok e Perplexity para discutir questões diversas, desde saúde até assuntos profissionais. Contudo, uma pesquisa recente indica que a segurança e privacidade percebidas nesses serviços podem ser ilusórias.

A investigação destaca que, por trás da interface amigável dos chats, existe um complexo sistema de coleta de dados que se destina à publicidade digital. Informações sensíveis, incluindo títulos de conversas, metadados e URLs permanentes, podem ser compartilhadas com terceiros. Em situações específicas, controles de acesso inadequados permitem que qualquer pessoa com o link da conversa acesse o conteúdo integral do chat.

O estudo mapeou três principais riscos que comprometem a segurança do usuário:

  • Exposição de links: plataformas como Grok e Perplexity transmitem URLs de conversas para rastreadores como o Meta Pixel, e o Grok pode expor o texto das mensagens por meio de metadados coletados pelo TikTok.
  • Identificação do usuário: o uso de cookies e técnicas de rastreamento permite que empresas de tecnologia criem perfis que conectam perguntas feitas à IA à identidade real do usuário na internet.
  • Controles de privacidade ilusórios: as políticas de privacidade frequentemente mencionam o compartilhamento de dados com “parceiros de negócios”, mas não esclarecem que o conteúdo das conversas está incluído nesse compartilhamento.

Segundo um dos coautores do estudo, muitos usuários não têm consciência de que essa coleta de dados ocorre, pois não há informações visíveis na interface que alertem sobre isso. Embora rejeitar cookies não essenciais possa ajudar, os pesquisadores enfatizam que essa medida pode não ser suficiente para impedir o fluxo de dados.

A necessidade de transparência legal

Do ponto de vista jurídico, a pesquisa aponta possíveis infrações ao GDPR (Regulamento Geral sobre a Proteção de Dados). A ausência de uma base legal clara para o compartilhamento de dados e a falta de informações adequadas aos usuários são questões preocupantes.

Um advogado que colaborou com a pesquisa sugere que os avisos sobre o potencial compartilhamento de informações sensíveis com a indústria publicitária deveriam ser tão evidentes quanto os alertas sobre possíveis erros cometidos por IA.

Embora os resultados ainda sejam preliminares, eles ressaltam a urgência de implementar mecanismos de controle de acesso mais eficazes e uma supervisão regulatória rigorosa. Enquanto isso, é prudente não tratar as interações com chatbots como se fossem um espaço privado e confidencial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *