Abi, residente em Manchester, Inglaterra, recorre ao ChatGPT para gerir ansiedade de saúde e obter conselhos rápidos, mas um estudo do Laboratório de Raciocínio com Máquinas da Universidade de Oxford revela que chatbots como ChatGPT, Gemini e Grok erram em dois terços das interações reais sobre sintomas. Esta discrepância afeta utilizadores que os usam como alternativa ao NHS, expondo riscos em emergências como hemorragias cerebrais.
O Problema: Por que é que isto é um risco real ou um facto importante agora?
O diretor médico da Inglaterra, Chris Whitty, criticou as respostas dos chatbots por serem apresentadas com convicção mas frequentemente erradas, num momento em que a IA surge no topo das pesquisas online. Abi experimentou orientação útil para infecção urinária, levando-a a um farmacêutico, mas errou gravemente numa queda com dor intensa nas costas, sugerindo perfuração de órgão e urgência hospitalar desnecessária.
Estudos mostram que a precisão cai drasticamente em conversas naturais, onde utilizadores fornecem sintomas gradualmente, esquecendo detalhes ou distraindo-se, ao contrário de cenários completos onde atinge 95%.
A Solução/Análise
No teste de Oxford com 1300 pessoas e cenários realistas, desde problemas leves a emergências como AVC hemorrágico, a precisão desceu para 35% em interações humanas. Pesquisas tradicionais guiam para sites do NHS, preparando melhor os utilizadores, enquanto chatbots resumem com tom pessoal e motivador, alterando a interpretação.
Um estudo do Instituto Lundquist testou ChatGPT, Gemini, Grok e outros com perguntas propensas a desinformação sobre cancro e vacinas, encontrando mais de metade das respostas problemáticas, como sugerir naturopatia para tratar cancro.
- Precisão em cenários completos: 95% nos chatbots.
- Precisão em conversas reais: 35%, com erros em 65% dos casos.
- Riscos identificados: Confiança excessiva em respostas impositivas, ignorando verificação.
- Diferença vs. buscas: Sites oferecem múltiplas fontes de fiabilidade; IA parece personalizada.
- Casos reais: Emergências mal avaliadas, como hemorragia subaracnoide tratada como repouso.
Dica de Especialista
O investigador Adam Mahdi recomenda usar chatbots apenas com conhecimento prévio para detetar erros, verificando sempre em fontes oficiais como o NHS, pois a IA prevê padrões linguísticos e não substitui diagnósticos profissionais, tal como a OpenAI admite ao posicionar o ChatGPT para educação e não para cuidados médicos.
Fontes
🤔 Faltou alguma coisa?
Ajude-nos a melhorar este conteúdo. Ser-lhe-á enviado um email de confirmação.