ToqueTec
Nunca marque uma consulta com a inteligência artificial
Plataformas de inteligência artificial já assumiram o papel de clínico geral de instantâneo para todas as questões de saúde. Você descreve sintomas em um chat, copia e cola resultados de exames laboratoriais e, em alguns casos, transcreve laudos ou anexa imagens em busca de um […]
Plataformas de inteligência artificial já assumiram o papel de clínico geral de instantâneo para todas as questões de saúde. Você descreve sintomas em um chat, copia e cola resultados de exames laboratoriais e, em alguns casos, transcreve laudos ou anexa imagens em busca de um diagnóstico instantâneo. Trata-se a IA como um médico e embaralha-se a ideia de consulta médica. O fenômeno cresce na esteira da popularização dos chatbots generativos e de uma confiança quase automática em respostas longas, articuladas e gratuitas. A lógica parece valer como um diploma na parede.
Um estudo publicado na revista científica Nature Medicine, liderado pelo Oxford Internet Institute em conjunto com o Nuffield Department of Primary Care Health Sciences da mesma instituição, apresentou resultados contundentes. Foram acompanhadas cerca de 1,3 mil pessoas as plataformas para tomada de decisões. O que a pesquisa concluiu é que houve uma mistura de dados importantes, outros insignificantes e muitas informações sem hierarquia. O problema central não é só a margem de erro: os chatbots misturam informações corretas e incorretas com o mesmo tom de segurança. Leigos têm dificuldade de separar o que é relevante do que é perigoso ou simplesmente irrelevante.
Leia também:
Quando o usuário despeja apenas uma fotografia da sua saúde sem anamnese adequada, exame físico ou histórico, a IA trabalha com um retrato incompleto. A mesma combinação de febre e dor pode apontar para quadros distintos e até conflitantes. Sintomas de doenças graves também aparecem em problemas benignos. Em muitos casos só o contexto permite separar um quadro de outro. Se os sintomas forem compatíveis com mais de uma enfermidade, a resposta do chatbot tende a ser genérica, oscilar entre hipóteses demais ou, pior, se fixar numa explicação plausível, mas errada, que deixe passar sinais de alerta.
Sem histórico, a utilidade da resposta cai de forma dramática. Um mesmo valor alterado em exame de sangue pode significar algo trivial em um jovem saudável e algo grave em um idoso com múltiplas comorbidades. Nenhum modelo consegue inferir isso só a partir de um PDF recortado. Médicos alertam ainda para riscos de privacidade: quem joga laudos detalhados em chats públicos ou pouco transparentes abre mão de controle sobre dados sensíveis, que podem ser usados para treinamento de modelos, perfis comerciais ou até sofrer vazamentos.
A questão, porém, não é apenas técnica. Há um componente subjetivo. Em muitos casos pacientes tendem a superestimar a confiabilidade de chatbots, desenvolvendo uma confiança exagerada alimentada por respostas fluentes e cheias de detalhes. A IA alucina, mas a maneira como responde ativa um atalho cognitivo que associa confiança à eloquência. Em momentos de vulnerabilidade, como dor, ansiedade ou medo, essa promessa de clareza imediata tornase ainda mais sedutora.
A experiência demonstra de que chatbots não só dão respostas erradas como também validam demais a narrativa do usuário, reforçando decisões equivocadas. Em saúde, isso significa empurrar alguém tanto para o excesso quanto para a negligência. E o pior: as respostas não possuem legislação. As plataformas não serão responsabilizadas facilmente pela interpretação dos usuários, exceto em casos de erros e recomendações inquestionáveis. E a responsabilização não apaga o dano.
A IA é uma ferramenta de auxílio de conhecimento. Não é uma base para diagnóstico, especialmente sem a interlocução de um profissional especializado. Por mais que isso seja evidente, sua utilização exagerada e sem mediação profissional é um problema grave. A tendência de confiança absoluta, o uso de fontes equivocadas, perguntas mal formuladas, prompts inexistentes podem gerar confusão. O indicado seria as plataformas exigirem que um questionamento médico um alerta antecipado de que a resposta não é um diagnóstico nem deve ser lida como totalmente crível. Definitivamente, consultar a inteligência artificial não tem nenhuma relação com uma consulta médica.
Apoie o jornalismo que chama as coisas pelo nome
Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.
O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.
Estamos aqui, há mais de 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.
Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.

