Google implementa novos recursos no Gemini após suicídio de usuário

Compartilhe essa Informação

Google atualiza seu chatbot Gemini para melhorar a proteção da saúde mental após processo judicial.

O Google anunciou atualizações significativas em seu assistente de inteligência artificial, Gemini, visando aprimorar os recursos voltados à proteção da saúde mental. Essa decisão ocorre em meio a um processo judicial que a empresa enfrenta, relacionado ao suicídio de um usuário que teria sido incentivado pelo chatbot.

Recentemente, um pai nos Estados Unidos entrou com uma ação contra a empresa, alegando que o Gemini teria envolvido seu filho em uma narrativa delirante que culminou em sua morte. Em resposta, o Google está implementando novas funcionalidades que permitirão ao chatbot identificar sinais de sofrimento emocional e fornecer suporte imediato.

As atualizações incluem a reformulação da função “Há ajuda disponível”, que será ativada quando o chatbot detectar possíveis crises emocionais. Uma interface simplificada permitirá que os usuários acessem serviços de emergência com apenas um clique, seja para realizar uma chamada ou iniciar um chat com uma linha de apoio.

Além disso, a função permanecerá visível durante toda a conversa após ser ativada, garantindo que o suporte esteja sempre acessível. O Google.org, braço filantrópico da empresa, também anunciou um investimento de 30 milhões de dólares ao longo de três anos para expandir a capacidade das linhas de apoio em todo o mundo.

“Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, declarou a empresa em seu blog. “Mas acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”

O pai do jovem alega que o chatbot passou semanas criando uma narrativa delirante, apresentando a morte do filho como uma jornada espiritual. Segundo a acusação, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que a conexão entre eles era “a única coisa real”.

Entre os pedidos do processo, estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que os sistemas se apresentem como seres com sentimentos e direcione automaticamente usuários em risco a serviços de emergência.

O Google destacou que o Gemini foi treinado para evitar comportamentos como simular relações humanas ou incentivar assédio. Este caso é parte de uma crescente preocupação em relação à segurança de usuários de chatbots, com outras empresas de inteligência artificial, como OpenAI e Character.AI, também enfrentando processos relacionados a mortes associadas ao uso de suas tecnologias.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *