quinta-feira, abril 30

O uso crescente de ferramentas de inteligência artificial (IA) por pacientes para buscar diagnósticos e orientações médicas tem gerado preocupação entre profissionais de saúde no Brasil. Relatos de médicos indicam que, cada vez mais, pacientes chegam aos consultórios com diagnósticos pré-definidos, sugestões de tratamento e até decisões de automedicação baseadas em respostas de chatbots.

De acordo com Pablo Mendonça, especialista em gestão de saúde e CEO da HSMED, o fenômeno já é percebido na prática clínica. “Nos últimos meses, médicos da nossa rede passaram a relatar com mais frequência pacientes que chegam com diagnósticos praticamente fechados, muitas vezes influenciados por inteligência artificial. Isso não nasce de uma resistência à tecnologia, mas da vivência diária no atendimento”, afirma.

Estudos recentes reforçam a preocupação. Uma pesquisa publicada na revista Nature Medicine, conduzida pela Universidade de Oxford, avaliou 1.298 participantes e apontou que, embora sistemas de IA apresentem bom desempenho em ambientes controlados, a precisão na identificação correta de problemas de saúde cai para cerca de 34,5% quando utilizados por pessoas em situações reais. Além disso, os usuários não tomaram decisões melhores do que aqueles que recorreram a métodos tradicionais de busca.

Para Mendonça, o problema não está na tecnologia em si, mas na forma como ela é utilizada. “Saúde não funciona como uma simples troca de pergunta e resposta. O paciente não organiza o histórico de forma estruturada e, muitas vezes, não percebe o que está omitindo. Pequenas variações na descrição dos sintomas podem levar a orientações completamente diferentes”, explica.

Outro ponto de atenção é o comportamento do público. Dados da Kaiser Family Foundation (KFF) mostram que 32% das pessoas já utilizam chatbots para obter aconselhamento em saúde. Entre aqueles que buscaram orientação sobre saúde física, 42% não procuraram um médico posteriormente. No caso da saúde mental, esse número sobe para 58%.

Segundo o CEO da HSMED, esse movimento tem impacto direto na rotina dos serviços de saúde. “Quando o paciente chega ancorado em um diagnóstico pré-formatado, a consulta muitas vezes começa com a necessidade de desconstruir essa convicção. Isso gera atrito, consome tempo clínico e pode comprometer a qualidade da assistência”, avalia.

Apesar dos riscos, especialistas reforçam que a inteligência artificial tem papel relevante quando utilizada como apoio ao cuidado. O Future Health Index 2024, da Philips, aponta que 29% dos líderes de saúde já investem em IA generativa, enquanto outros 56% planejam investir nos próximos anos.

“Quando bem aplicada, a tecnologia ajuda a organizar dados, reduzir burocracia e apoiar decisões clínicas. O problema começa quando ela deixa de ser apoio e passa a ser substituição. Em saúde, eficiência não pode significar transferência de responsabilidade”, destaca Mendonça.

A preocupação ganha ainda mais relevância diante de dados da Organização Mundial da Saúde (OMS), que indicam que 1 em cada 10 pacientes sofre algum tipo de dano durante o cuidado em saúde, sendo mais da metade desses casos evitáveis. Parte significativa desses eventos está relacionada a medicamentos e intervenções terapêuticas, o que amplia os riscos quando há automedicação baseada em orientações inadequadas.

Além dos impactos clínicos, há também questões relacionadas à governança e responsabilidade. “Se uma recomendação automatizada falha, quem responde? O paciente, a plataforma ou o sistema que foi treinado com dados incompletos? Esse é um debate que ainda precisa amadurecer”, pontua o executivo.

Para Mendonça, o setor de saúde vive um momento decisivo. “O futuro não será definido por quem usa mais tecnologia, mas por quem sabe usá-la sem empobrecer o cuidado. Podemos seguir por um caminho que prioriza automação e redução de custos, ou por outro que utiliza a tecnologia para qualificar decisões e preservar o vínculo com o paciente”, afirma.

Ele conclui destacando que o fator humano continuará sendo insubstituível. “Um algoritmo pode organizar informações e sugerir hipóteses, mas não pode assumir a responsabilidade de cuidar de alguém.”

Exit mobile version