Testes com 21 chatbots de IA revelam falhas em diagnósticos diferenciais

Compartilhe essa Informação

Estudo revela limitações de chatbots de IA no diagnóstico médico.

A pesquisa realizada por uma equipe do Mass General Brigham testou 21 chatbots de inteligência artificial em diagnósticos clínicos, revelando resultados insatisfatórios.

Os chatbots, incluindo modelos avançados como Claude 4.5 Opus e GPT-5, foram submetidos a um total de 29 casos clínicos, com mais de 16.200 respostas geradas. O desempenho geral foi alarmante, com uma taxa de erro de cerca de 80% nos diagnósticos diferenciais quando apenas informações básicas estavam disponíveis.

Essas informações iniciais, como idade, sexo e sintomas, são essenciais para que médicos humanos realizem diagnósticos. Contudo, os chatbots falharam em lidar com essa simplicidade, evidenciando a dificuldade em realizar triagens iniciais eficazes.

Embora os modelos mais recentes tenham mostrado um desempenho superior em comparação a versões mais simples, como o Gemini 1.5 Flash, a conclusão permanece: os modelos de linguagem ainda enfrentam sérias limitações na tarefa de diagnóstico médico.

Os pesquisadores destacam que, ao receber dados clínicos mais completos, como resultados de exames físicos e laboratoriais, os chatbots conseguem alcançar diagnósticos corretos em mais de 90% dos casos. Porém, essa dependência de informações extensivas ressalta a incapacidade de realizar diagnósticos iniciais de forma autônoma.

Os especialistas alertam que, apesar das promessas da indústria de IA na área médica, esses modelos não estão prontos para uso clínico sem supervisão rigorosa. A intervenção humana é crucial para garantir a segurança e a precisão no diagnóstico.

Um aspecto preocupante é a crescente dependência de pacientes em ferramentas como o ChatGPT para automedicação, o que pode levar a riscos significativos à saúde. O estudo enfatiza que as “alucinações” persistem nesses modelos, levantando questões sobre a integridade do cuidado ao paciente.

Em um contexto mais amplo, a IA médica é vista como uma ferramenta auxiliar, mas não deve ser considerada um substituto para a expertise humana. Em El Salvador, o governo lançou um projeto ambicioso que envolve a utilização de IA para gerenciar a saúde da população, levantando preocupações sobre a eficácia e segurança desse modelo.

Com um investimento de US$ 500 milhões, o aplicativo Dr.SV promete atuar como um médico de família, reconhecendo sintomas e agendando consultas. No entanto, a demissão de milhares de profissionais de saúde em anos recentes levanta dúvidas sobre a viabilidade desse sistema e sua capacidade de atender adequadamente a população.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *