IA médica do Google comete erro em diagnóstico e cita órgão que não existe

IA médica do Google comete erro em diagnóstico e cita órgão que não existe

Um caso preocupante envolvendo inteligência artificial na medicina foi revelado recentemente: a ferramenta Med-Gemini do Google, desenvolvida para auxiliar diagnósticos médicos, diagnosticou uma condição cerebral usando um termo anatômico que simplesmente não existe. O erro, que passou despercebido pela equipe da gigante de tecnologia, levanta sérias questões sobre a confiabilidade desses sistemas em aplicações críticas de saúde.

A falha ocorreu quando a IA identificou o que chamou de “old left basilar ganglia infarct” (antigo infarto do gânglio basilar esquerdo) em uma imagem de exame cerebral. O problema é que “gânglio basilar” não é uma estrutura real do cérebro humano. O termo correto seria “basal ganglia” (gânglios basais), uma região cerebral bem documentada pela ciência médica.

Você também pode gostar dos artigos abaixo:

O caso foi revelado inicialmente pelo portal The Verge, que destacou como este tipo de erro representa um exemplo clássico de “alucinação” em sistemas de inteligência artificial – quando o modelo gera informações plausíveis na forma, mas factualmente incorretas. Para especialistas em IA médica, o incidente serve como um alerta importante sobre os riscos de confiar cegamente em diagnósticos automatizados.

Em resposta à descoberta, o Google reconheceu o erro, mas tentou minimizar sua gravidade. A empresa afirmou que a IA de fato identificou corretamente uma lesão cerebral nas imagens analisadas, mas falhou ao aplicar a terminologia médica adequada. A explicação mais provável é que o sistema tenha confundido “basal ganglia” com “basilar artery” (artéria basilar), duas estruturas cerebrais completamente diferentes.

Interface digital mostrando análise cerebral com sobreposição de elementos tecnológicos médicos
A combinação de tecnologia e medicina requer extrema precisão – erros terminológicos podem levar a tratamentos inadequados e consequências graves para pacientes.

Implicações sérias para a medicina digital

Apesar de parecer um erro simples de terminologia, as consequências potenciais são graves. Diagnósticos médicos incorretos podem levar a tratamentos inadequados, procedimentos desnecessários ou atrasos em intervenções críticas. No Brasil, onde sistemas de IA médica começam a ser implementados em instituições de saúde, o caso serve como um importante alerta para médicos e gestores.

O episódio do Med-Gemini não é um caso isolado. Testes recentes com a versão atualizada da IA, chamada MedGemma, revelaram outras fragilidades preocupantes. Profissionais de saúde observaram que pequenas mudanças na formulação das perguntas resultavam em diagnósticos completamente diferentes para o mesmo exame de imagem, revelando inconsistências fundamentais no funcionamento do sistema.

Para especialistas em medicina digital que atuam no Brasil, o caso reforça a necessidade de protocolos rigorosos que mantenham médicos humanos como supervisores finais de qualquer diagnóstico assistido por IA. “Sistemas como o Med-Gemini devem ser vistos como ferramentas auxiliares, nunca como substitutos do julgamento clínico de um profissional treinado”, argumentam pesquisadores da área.

O ocorrido também destaca uma questão crítica para o avanço da inteligência artificial na saúde: a transparência. Diferentemente de médicos humanos, que podem explicar seu raciocínio diagnóstico, muitos sistemas de IA funcionam como “caixas-pretas”, onde o processo de decisão não é facilmente auditável. Esta característica torna ainda mais importante o estabelecimento de mecanismos rigorosos de verificação e validação antes que tais tecnologias sejam implementadas em larga escala.

Leave A Comment

You must be logged in to post a comment.

Back to Top