Ir para o conteúdo
Logotipo Branco Setec
  • Segmentos
    • Automotive
    • Industry
    • Service
    • Healthcare
  • Sobre nós
  • Agenda
  • BX Summit
  • MBA Setec
  • Insights
  • Fale conosco
  • Segmentos
    • Automotive
    • Industry
    • Service
    • Healthcare
  • Sobre nós
  • Agenda
  • BX Summit
  • MBA Setec
  • Insights
  • Fale conosco

LOGIN

OrbitVerticalLaranja (1)
ARG
brasil
Logotipo Branco Setec

LOGIN

OrbitVerticalLaranja (1)
ARG
brasil
  • Segmentos
    • Automotive
    • Industry
    • Service
    • Healthcare
  • Sobre nós
  • Agenda
  • BX Summit
  • MBA Setec
  • Insights
  • Fale conosco
  • Segmentos
    • Automotive
    • Industry
    • Service
    • Healthcare
  • Sobre nós
  • Agenda
  • BX Summit
  • MBA Setec
  • Insights
  • Fale conosco

LOGIN

OrbitVerticalLaranja (1)
ARG
brasil
Logotipo Branco Setec
  • Segmentos
    • Automotive
    • Industry
    • Service
    • Healthcare
  • Sobre nós
  • Agenda
  • BX Summit
  • MBA Setec
  • Insights
  • Fale conosco
  • Segmentos
    • Automotive
    • Industry
    • Service
    • Healthcare
  • Sobre nós
  • Agenda
  • BX Summit
  • MBA Setec
  • Insights
  • Fale conosco

Impactos da Nova Resolução CFM sobre uso de IA na Saúde

  • março 19, 2026

Últimas publicações

Inovar Dentro (não fora) da Caixa

Durante muito tempo, inovação foi associada a pensar fora da...

Leia mais9 de abril de 2026

Prioridade não tem plural: por que executivos sofrem para planejar e fazer escolhas

A palavra prioridade vem do latim prioritas, derivada de prior,...

Leia mais9 de abril de 2026

Se a informação é abundante, para que serve a educação?

Se a informação é abundante, para que serve a educação?...

Leia mais9 de abril de 2026

Os 8 Desperdícios no Lean Healthcare: Transformando a Eficiência na Saúde

O conceito de Lean Healthcare surgiu da necessidade de adaptar...

Leia mais2 de abril de 2026

A recente publicação da Conselho Federal de Medicina (CFM) sobre o uso responsável de Inteligência Artificial na prática médica marca um ponto de inflexão importante na discussão sobre transformação digital na saúde no Brasil.

A Resolução CFM nº 2.454/2026 estabelece normas para desenvolvimento, validação, governança e utilização de sistemas de IA, deixando claro que a tecnologia pode apoiar a prática médica, mas não substituir o julgamento clínico. O texto afirma explicitamente que a decisão final sobre diagnóstico, tratamento e prognóstico permanece sob responsabilidade do médico, mesmo quando ferramentas automatizadas são utilizadas. 

A norma surge em um contexto em que a adoção de IA na saúde cresce rapidamente, com aplicações em diagnóstico por imagem, triagem, análise preditiva, automação de prontuários e suporte à decisão clínica. O próprio CFM reconhece que o uso dessas ferramentas é legítimo e desejável, desde que respeitados limites éticos, científicos e legais, incluindo validação adequada, certificação regulatória e registro do uso da tecnologia no prontuário do paciente.

O ponto mais relevante da resolução não está na autorização do uso, mas na ênfase na responsabilidade profissional e na necessidade de compreensão crítica da tecnologia. O texto determina que o médico deve manter autonomia intelectual diante das recomendações do sistema, avaliando se elas são compatíveis com o quadro clínico e com a evidência científica disponível. Essa exigência cria, na prática, um novo requisito de competência: não basta saber medicina, é necessário entender minimamente como funcionam os sistemas que influenciam a decisão médica.

A resolução também introduz requisitos de transparência. O paciente deve ser informado quando a IA tiver papel relevante no atendimento, e sistemas automatizados não podem comunicar diagnósticos diretamente sem mediação médica. Essa regra reforça que a relação médico paciente continua sendo o eixo central da prática clínica, mesmo em um cenário altamente digitalizado. 

Outro aspecto importante é a inclusão de governança, auditoria e capacitação como partes obrigatórias do ciclo de vida das soluções de IA. A norma estabelece que o uso dessas tecnologias envolve responsabilidades institucionais, não apenas individuais, incluindo monitoramento contínuo, documentação técnica e treinamento adequado dos profissionais que utilizam os sistemas. 

Esse ponto conecta diretamente com um tema ainda pouco discutido no setor de saúde brasileiro: letramento em IA. A resolução não usa necessariamente esse termo de forma explícita, mas ao exigir julgamento crítico, validação científica, compreensão de limites e responsabilidade sobre o uso, ela pressupõe que médicos, gestores e instituições tenham conhecimento suficiente para avaliar a tecnologia. Sem esse letramento, a regra se torna formal, mas não efetiva.

A literatura internacional já mostra que a introdução de IA em ambientes clínicos sem preparo adequado aumenta risco de automação acrítica, erros de interpretação e dependência excessiva de sistemas. Diretrizes internacionais sobre IA confiável em saúde destacam que a adoção segura depende não apenas de bons algoritmos, mas de profissionais capazes de entender suas premissas, vieses e limitações. 

No contexto brasileiro, o impacto dessa resolução tende a ser ainda maior porque o nível de maturidade digital das instituições é heterogêneo. Hospitais altamente digitalizados convivem com estruturas que ainda dependem de processos manuais, e a introdução de IA sem formação adequada pode ampliar desigualdades de qualidade assistencial. A exigência implícita de letramento cria uma nova agenda para educação médica continuada, formação de lideranças e programas de transformação digital.

A consequência prática é clara. A regulamentação do CFM não é apenas uma norma técnica, é um sinal de que o uso de IA na saúde entrou na fase de institucionalização. A partir desse ponto, não será suficiente adquirir tecnologia. Será necessário desenvolver competência para utilizá-la de forma responsável.

O debate sobre Inteligência Artificial na saúde, portanto, deixa de ser apenas tecnológico e passa a ser educacional, organizacional e ético. A resolução do CFM formaliza essa mudança e coloca o letramento em IA como condição implícita para que a inovação produza segurança, qualidade e valor real na prática médica.

➡️ Conheça nosso canal no Youtube
➡️ Confira mais artigos

Foto de Gilberto Strafacci

Gilberto Strafacci

Vice-Presidente do Setec Consulting Group. Cientista de Dados, Especialista em Inovação e Gestão, Engenheiro pela Escola Politécnica da Universidade de São Paulo. Certified Master Black Belt, Certified Scrum Master, Certified Agile Coach, Certified Kanban Professional, Certified Agile Trainer, Certified RPA COE Manager, RPA Developer e RPA Business Analyst, Certified Manager 3.0, Certified LEGO Serious Play Facilitator.
Linkedin-in Instagram Youtube

NEWSLETTER

Inscreva-se para atualizações exclusivas direto no seu e-mail!

A Setec faz parte do WEPs Women’s Empowerment Principles

SEGMENTOS

  • Automotive
  • Healthcare
  • Industry
  • Service

INSTITUCIONAL

  • Sobre nós
  • Fale conosco
  • Certificado
  • FAQ

SEGURANÇA

  • Política de privacidade
  • Termos de uso
  • Central de privacidade
  • Código de Ética

© 2024 All rights reserved

Powered by NOVE HuB

Certificado

Solicite seu certificado através deste e-mail: certificado@setecnet.com.br