São Francisco (EUA) — O Google decidiu suspender a exibição de resumos gerados por inteligência artificial (IA) em pesquisas sobre exames laboratoriais. A medida foi adotada depois que uma investigação do jornal The Guardian identificou recomendações médicas incorretas e potencialmente nocivas apresentadas pelo recurso chamado “visão geral da IA”.
Erros que alarmaram especialistas
De acordo com o levantamento, o sistema ignorava variáveis clínicas essenciais, como idade, sexo e etnia, ao interpretar resultados de exames de sangue. Sem esse contexto, valores aparentemente normais podiam ocultar doenças hepáticas graves em determinados perfis de pacientes, oferecendo falsa sensação de segurança.
Entre os exemplos mais críticos, a ferramenta aconselhou pessoas com câncer de pâncreas a evitar alimentos gordurosos — orientação oposta às diretrizes médicas, que recomendam alto aporte calórico para manter a força durante quimioterapia ou cirurgias. Em outra falha, sugeriu o exame de Papanicolau para detecção de câncer vaginal, indicação tecnicamente incorreta que poderia atrasar diagnósticos precisos.
A plataforma também deu conselhos considerados prejudiciais sobre saúde mental, reforçando estigmas em temas como psicose e distúrbios alimentares.
Resposta do Google e críticas do setor
Em nota, a empresa afirmou que “a maioria dos resumos é útil” e que toma providências quando a IA interpreta mal informações da web. Organizações de saúde, porém, criticam a estratégia de retirar apenas termos específicos das buscas, argumentando que a solução não resolve problemas sistêmicos do modelo.
Embora a remoção cubra consultas envolvendo exames laboratoriais, variações de termos técnicos ainda podem acionar automaticamente os resumos em certas pesquisas, informou o The Guardian.
Imagem: Marco Lazzarini
Movimento de concorrentes
Enquanto o Google enfrenta questionamentos sobre precisão, a Anthropic lançou o Claude for Healthcare, baseado no modelo Opus 4.5. O serviço, voltado a médicos e pesquisadores, integra bases oficiais como o banco de dados do Medicare e o sistema CID-10 para agilizar análise de prontuários, diretrizes clínicas e documentação regulatória.
Já a OpenAI apresentou o ChatGPT Health, hub que permite ao usuário acompanhar histórico de bem-estar de forma privada. Avaliado pelo framework HealthBench, o recurso utiliza dados de dispositivos vestíveis — como Apple Watch — para fornecer informações sobre sono e atividade física, sempre com o aviso de que não substitui diagnóstico profissional.
A retirada dos resumos pelo Google reflete um ajuste na oferta de informações médicas em plataformas abertas, enquanto soluções mais especializadas buscam atender profissionais de saúde e consumidores com requisitos de segurança reforçados.
Com informações de WizyThec

