CFM regulamenta o uso de IA na medicina
Depois de mais de um ano e meio de debates na Comissão de Inteligência Artificial, o uso da inteligência artificial na medicina está regulamentado pelo Conselho Federal de Medicina, o CFM, por meio da Resolução n.º 2.454/2026.
O uso da IA já era realidade na prática médica, seja para apoiar diagnósticos e exames, seja para automatizar tarefas que antes consumiam o tempo do médico e da equipe. Porém, agora, há regras definidas para consultórios, clínicas e hospitais em todo o território nacional.
A medida não veio para proibir e nem restringir a inovação. Ao contrário: ela autoriza e organiza o uso da tecnologia no apoio à decisão clínica, à gestão em saúde, à pesquisa científica e à educação médica continuada, desde que respeitados os limites éticos e legais da profissão. Em resumo, a IA pode ser utilizada como ferramenta de apoio, mas a decisão final continua sendo do médico.
Neste artigo, trazemos todos os detalhes para você!
Índice de conteúdo
- O que muda com a nova regra do CFM sobre o uso de IA na medicina
- Classificação de risco das IAs e governança
- Gestão inteligente com o ProDoctor
O que muda com a nova regra do CFM sobre o uso de IA na medicina
De maneira geral, a regra define que a IA é apenas um apoio, e a decisão final é sempre do médico. O profissional deve conferir as sugestões do sistema, conhecer suas falhas e registrar o uso da tecnologia no prontuário.
Se houver um erro exclusivo da IA, o médico não será culpado, desde que prove que usou a ferramenta de forma ética e atenta. Saiba mais:
1. A decisão continua sendo do médico. A IA pode ajudar no diagnóstico, tratamento e prognóstico, mas quem decide é o médico.
2. O paciente deve ser informado quando a IA está sendo usada no atendimento.
3. IA não dá diagnóstico sozinha. A tecnologia não pode comunicar diagnóstico ou tratamento sem a participação do médico.
4. Proteção dos dados da saúde. As informações do paciente devem seguir regras rígidas de segurança e privacidade, com observância rigorosa da LGPD e normas de segurança da informação em saúde.
5. Responsabilidade médica mantida. O médico continua responsável pelo cuidado e deve usar a IA com senso crítico.
6. Direito de não usar. O médico pode recusar sistemas de IA que considere inadequados ou inseguros, ou seja, não validadas e/ou certificadas ou que conflitem com princípios éticos e legais.
7. Hospitais terão regras internas. Instituições que utilizarem IA deverão criar mecanismos de controle e supervisão, inclusive uma comissão de IA.
A norma entra em vigor 180 dias após a publicação, isto é, em 27 de junho de 2026.
➡️ Leia também: Como a inteligência artificial está transformando diagnósticos e tratamentos na medicina.
Classificação de risco e governança
A nova regra do CFM organiza como a inteligência artificial deve ser usada com segurança, focando em três pontos principais:
1. Classificação de risco
Nem toda IA é igual. Assim, elas serão divididas em quatro níveis (baixo, médio, alto ou inaceitável) baseados no perigo que podem oferecer aos direitos do paciente, à complexidade do sistema e ao tipo de dados usados.
2. Organização e fiscalização
Instituições de saúde que criam ou usam sistemas próprios de IA precisam ter regras internas de controle. Se necessário, devem criar uma Comissão de IA e Telemedicina, liderada por um médico, para garantir que a tecnologia seja usada de forma ética.
3. Proteção total de dados
O uso de informações para treinar ou rodar as IAs deve seguir rigorosamente a LGPD (Lei Geral de Proteção de Dados). Isso significa que a segurança deve ser máxima, com medidas técnicas que impeçam o vazamento ou o uso indevido de dados sensíveis de saúde.
Consequentemente, não basta “ter IA”. A clínica precisa saber onde ela entra, o que ela influencia e como é supervisionada, especialmente quando o sistema toca em dados sensíveis ou em decisões clínicas.
➡️ Veja também: Atendimento humanizado na saúde: importância, objetivos e como a tecnologia potencializa esse cuidado
Gestão na medicina com IA: inovação com ética e segurança
A Resolução CFM nº 2.454/2026 preenche uma lacuna e estabelece um caminho: inovar, sim, com supervisão médica, transparência, governança e proteção de dados.
Se a sua clínica quer adotar IA com segurança e com ganhos reais, o melhor passo é sair do “ter IA” e ir para o “ter uma tecnologia que faz sentido”: com critério, praticidade, segurança e satisfação do seu paciente.
Quer ver como inteligências bem aplicadas podem reduzir faltas, organizar a agenda e elevar o padrão de segurança da sua operação?
Fale com o time ProDoctor e solicite uma demonstração focada na sua especialidade.
➡️ Leitura recomendada: Gestão clínica: como organizar agendas, finanças e equipe com tecnologia integrada
