
IA médica do Google comete erro em diagnóstico e cita órgão que não existe
IA médica do Google comete erro em diagnóstico e cita órgão que não existe
Um caso preocupante envolvendo inteligência artificial na medicina foi revelado recentemente: a ferramenta Med-Gemini do Google, desenvolvida para auxiliar diagnósticos médicos, diagnosticou uma condição cerebral usando um termo anatômico que simplesmente não existe. O erro, que passou despercebido pela equipe da gigante de tecnologia, levanta sérias questões sobre a confiabilidade desses sistemas em aplicações críticas de saúde.
A falha ocorreu quando a IA identificou o que chamou de “old left basilar ganglia infarct” (antigo infarto do gânglio basilar esquerdo) em uma imagem de exame cerebral. O problema é que “gânglio basilar” não é uma estrutura real do cérebro humano. O termo correto seria “basal ganglia” (gânglios basais), uma região cerebral bem documentada pela ciência médica.
Você também pode gostar dos artigos abaixo:
- Essas empresas trocaram humanos por IA — agora estão pagando (bem mais) para consertar o estrago
- A inteligência artificial pode estar tornando você menos inteligente, indica pesquisadora
O caso foi revelado inicialmente pelo portal The Verge, que destacou como este tipo de erro representa um exemplo clássico de “alucinação” em sistemas de inteligência artificial – quando o modelo gera informações plausíveis na forma, mas factualmente incorretas. Para especialistas em IA médica, o incidente serve como um alerta importante sobre os riscos de confiar cegamente em diagnósticos automatizados.
Em resposta à descoberta, o Google reconheceu o erro, mas tentou minimizar sua gravidade. A empresa afirmou que a IA de fato identificou corretamente uma lesão cerebral nas imagens analisadas, mas falhou ao aplicar a terminologia médica adequada. A explicação mais provável é que o sistema tenha confundido “basal ganglia” com “basilar artery” (artéria basilar), duas estruturas cerebrais completamente diferentes.

Implicações sérias para a medicina digital
Apesar de parecer um erro simples de terminologia, as consequências potenciais são graves. Diagnósticos médicos incorretos podem levar a tratamentos inadequados, procedimentos desnecessários ou atrasos em intervenções críticas. No Brasil, onde sistemas de IA médica começam a ser implementados em instituições de saúde, o caso serve como um importante alerta para médicos e gestores.
O episódio do Med-Gemini não é um caso isolado. Testes recentes com a versão atualizada da IA, chamada MedGemma, revelaram outras fragilidades preocupantes. Profissionais de saúde observaram que pequenas mudanças na formulação das perguntas resultavam em diagnósticos completamente diferentes para o mesmo exame de imagem, revelando inconsistências fundamentais no funcionamento do sistema.
Para especialistas em medicina digital que atuam no Brasil, o caso reforça a necessidade de protocolos rigorosos que mantenham médicos humanos como supervisores finais de qualquer diagnóstico assistido por IA. “Sistemas como o Med-Gemini devem ser vistos como ferramentas auxiliares, nunca como substitutos do julgamento clínico de um profissional treinado”, argumentam pesquisadores da área.
O ocorrido também destaca uma questão crítica para o avanço da inteligência artificial na saúde: a transparência. Diferentemente de médicos humanos, que podem explicar seu raciocínio diagnóstico, muitos sistemas de IA funcionam como “caixas-pretas”, onde o processo de decisão não é facilmente auditável. Esta característica torna ainda mais importante o estabelecimento de mecanismos rigorosos de verificação e validação antes que tais tecnologias sejam implementadas em larga escala.
Leave A Comment
You must be logged in to post a comment.