A recente publicação da Conselho Federal de Medicina (CFM) sobre o uso responsável de Inteligência Artificial na prática médica marca um ponto de inflexão importante na discussão sobre transformação digital na saúde no Brasil.
A Resolução CFM nº 2.454/2026 estabelece normas para desenvolvimento, validação, governança e utilização de sistemas de IA, deixando claro que a tecnologia pode apoiar a prática médica, mas não substituir o julgamento clínico. O texto afirma explicitamente que a decisão final sobre diagnóstico, tratamento e prognóstico permanece sob responsabilidade do médico, mesmo quando ferramentas automatizadas são utilizadas.
A norma surge em um contexto em que a adoção de IA na saúde cresce rapidamente, com aplicações em diagnóstico por imagem, triagem, análise preditiva, automação de prontuários e suporte à decisão clínica. O próprio CFM reconhece que o uso dessas ferramentas é legítimo e desejável, desde que respeitados limites éticos, científicos e legais, incluindo validação adequada, certificação regulatória e registro do uso da tecnologia no prontuário do paciente.
O ponto mais relevante da resolução não está na autorização do uso, mas na ênfase na responsabilidade profissional e na necessidade de compreensão crítica da tecnologia. O texto determina que o médico deve manter autonomia intelectual diante das recomendações do sistema, avaliando se elas são compatíveis com o quadro clínico e com a evidência científica disponível. Essa exigência cria, na prática, um novo requisito de competência: não basta saber medicina, é necessário entender minimamente como funcionam os sistemas que influenciam a decisão médica.
A resolução também introduz requisitos de transparência. O paciente deve ser informado quando a IA tiver papel relevante no atendimento, e sistemas automatizados não podem comunicar diagnósticos diretamente sem mediação médica. Essa regra reforça que a relação médico paciente continua sendo o eixo central da prática clínica, mesmo em um cenário altamente digitalizado.
Outro aspecto importante é a inclusão de governança, auditoria e capacitação como partes obrigatórias do ciclo de vida das soluções de IA. A norma estabelece que o uso dessas tecnologias envolve responsabilidades institucionais, não apenas individuais, incluindo monitoramento contínuo, documentação técnica e treinamento adequado dos profissionais que utilizam os sistemas.
Esse ponto conecta diretamente com um tema ainda pouco discutido no setor de saúde brasileiro: letramento em IA. A resolução não usa necessariamente esse termo de forma explícita, mas ao exigir julgamento crítico, validação científica, compreensão de limites e responsabilidade sobre o uso, ela pressupõe que médicos, gestores e instituições tenham conhecimento suficiente para avaliar a tecnologia. Sem esse letramento, a regra se torna formal, mas não efetiva.
A literatura internacional já mostra que a introdução de IA em ambientes clínicos sem preparo adequado aumenta risco de automação acrítica, erros de interpretação e dependência excessiva de sistemas. Diretrizes internacionais sobre IA confiável em saúde destacam que a adoção segura depende não apenas de bons algoritmos, mas de profissionais capazes de entender suas premissas, vieses e limitações.
No contexto brasileiro, o impacto dessa resolução tende a ser ainda maior porque o nível de maturidade digital das instituições é heterogêneo. Hospitais altamente digitalizados convivem com estruturas que ainda dependem de processos manuais, e a introdução de IA sem formação adequada pode ampliar desigualdades de qualidade assistencial. A exigência implícita de letramento cria uma nova agenda para educação médica continuada, formação de lideranças e programas de transformação digital.
A consequência prática é clara. A regulamentação do CFM não é apenas uma norma técnica, é um sinal de que o uso de IA na saúde entrou na fase de institucionalização. A partir desse ponto, não será suficiente adquirir tecnologia. Será necessário desenvolver competência para utilizá-la de forma responsável.
O debate sobre Inteligência Artificial na saúde, portanto, deixa de ser apenas tecnológico e passa a ser educacional, organizacional e ético. A resolução do CFM formaliza essa mudança e coloca o letramento em IA como condição implícita para que a inovação produza segurança, qualidade e valor real na prática médica.