ToqueTec
Inteligência Artificial na Medicina: CFM publica marco regulatório para garantir ética e autonomia humana
O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026, estabelecendo as regras e os limites éticos para o uso da Inteligência Artificial na prática médica. A norma, que entra em vigor em agosto de 2026, surge em um momento de rápida expansão de […]
O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026, estabelecendo as regras e os limites éticos para o uso da Inteligência Artificial na prática médica. A norma, que entra em vigor em agosto de 2026, surge em um momento de rápida expansão de ferramentas automatizadas e busca preencher um vácuo regulatório que trazia incertezas tanto para médicos quanto para pacientes.
O pilar central da nova resolução é a preservação da autonomia profissional. O texto deixa claro que a IA deve atuar estritamente como uma ferramenta de apoio à decisão clínica, e nunca como substituta do julgamento humano. “A inteligência artificial não dá a notícia; o médico dá. É vedado delegar à máquina a comunicação de diagnósticos, prognósticos ou decisões terapêuticas sem mediação humana”, cita o documento.
Leia também:
Na prática, isso significa que:
- O médico tem o direito de recusar recomendações da IA caso não confie na validação científica do sistema.
- Todo uso relevante de IA no atendimento deve ser registrado no prontuário do paciente.
- O paciente deve ser informado de forma clara quando a tecnologia estiver sendo utilizada em seu cuidado.
Os Perigos do “Dr. Algoritmo” sem supervisão
Um dos pontos mais sensíveis abordados pela resolução e por especialistas da área é o perigo do uso cotidiano da IA de forma desassistida. Com a popularização das ferramentas de Inteligência Artificial generativas e aplicativos de saúde, o CFM alertou para riscos críticos:
Erros Factuais: Sistemas de IA podem gerar respostas que parecem convincentes, mas que são medicamente incorretas, levando a autodiagnósticos perigosos.
Vieses Algorítmicos: Algoritmos podem reproduzir preconceitos de raça ou gênero presentes em seus dados de treinamento, resultando em recomendações desiguais ou inadequadas para determinados grupos.
Quebra de Sigilo: O uso de ferramentas que não seguem padrões rígidos de criptografia pode expor dados sensíveis de saúde, violando a Lei Geral de Proteção de Dados (LGPD).
Hierarquia de Riscos e Governança
A Resolução 2.454/2026 também introduz uma classificação de risco para as tecnologias de IA, que varia de Baixo (como sistemas de agendamento e chatbots administrativos) até Alto ou Inaceitável (sistemas que influenciam decisões de vida ou morte sem transparência).
Instituições que utilizam IA deverão criar Comissões de IA e Telemedicina para auditar e monitorar continuamente o desempenho dessas ferramentas, garantindo que elas não “alucinem” ou percam acurácia com o tempo.
A posição oficial do CFM reafirma que, embora a inovação seja bem-vinda e possa acelerar a detecção de doenças complexas, ela não pode atropelar os princípios da beneficência e da não maleficência. A responsabilidade civil e ética pelo ato médico permanece integralmente sobre os ombros do profissional humano.
Este conteúdo foi criado com auxílio de inteligência artificial e supervisionado por um jornalista do ToqueTec
Apoie o jornalismo que chama as coisas pelo nome
Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.
CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.
Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.

