CFM cria resolução sobre uso de IA em atendimentos médicos
O Conselho Federal de Medicina (CFM) publicou na sexta-feira, 27 de fevereiro, no Diário Oficial da União (DOU), uma resolução que normatiza o uso da inteligência artificial na medicina.
De acordo com o texto, sistemas baseados em IA podem ajudar em diagnósticos, gestão e pesquisa, mas não substituem a decisão do médico.
A resolução nº 2454/2026 entra em vigor em 180 dias a partir da publicação e cria obrigações para profissionais e instituições de saúde. Dentre elas estão: classificação de risco das ferramentas, auditorias contínuas, proteção de dados e a criação de uma Comissão de IA e Telemedicina em hospitais com sistemas próprios.
Segundo o vice-presidente do CFM e relator da resolução, Jeancarlo Cavalcante, a medida busca acompanhar o avanço tecnológico sem abrir mão da segurança do paciente.
“A inteligência artificial hoje permeia todos os campos de conhecimento humano; só que, na medicina, ela precisava ser regulada para mitigar os riscos, tanto da utilização pelos médicos, como pelos pacientes”, diz.
Classificação de risco e comissão de IA
A resolução define categorias de risco baseadas na atuação das IAs. São elas:
– Baixo risco: engloba ferramentas administrativas, como sistemas de marcação de consultas, que não causam danos à saúde, direitos ou segurança dos pacientes.
– Médio risco: aqui estão softwares de apoio diagnóstico, que exigem supervisão humana constante e não são capazes de operar de forma autônoma.
– Alto risco: nessa categoria entram sistemas capazes de executar decisões médicas críticas e realizar ações automatizadas, com potencial de gerar altos riscos físicos, psicológicos e morais.
De acordo com a resolução, instituições públicas e privadas deverão realizar uma avaliação preliminar para definir a categoria de risco das IAs. A partir disso, precisarão implementar mecanismos de monitoramento e auditoria proporcionais aos seus impactos.
Para Antonildes Nascimento Assunção Junior, coordenador do curso de pós-graduação Inteligência Artificial e Ciência de Dados em Saúde da Faculdade Sírio-Libanês, o modelo de categorização por níveis de risco aproxima o Brasil de referenciais internacionais, espelhando padrões europeus e norte-americanos.
Outra exigência dirigida às instituições é a criação de uma Comissão de IA e Telemedicina. “Os hospitais que utilizarem a inteligência artificial deverão ter um Comitê de Inteligência Artificial, justamente para poder auditar esses sistemas”, diz Cavalcante. A fiscalização será de responsabilidade dos Conselhos Regionais de Medicina (CRMs).
Além disso, o vice-presidente do CFM destaca que softwares utilizados como dispositivos médicos deverão ser homologados pela Agência Nacional de Vigilância Sanitária (Anvisa).
IA não decide sozinha
Além de mecanismos de governança, auditoria e monitoramento de riscos, a resolução veda que sistemas automatizados comuniquem diagnósticos ao paciente sem mediação humana e garante que o médico tenha autonomia para seguir ou não recomendações da IA.
Para Silvio Cazella, professor do Programa de Pós-Graduação em Tecnologias da Informação e Gestão em Saúde da Universidade Federal de Ciências da Saúde de Porto Alegre (UFCSPA), esse reforço à supervisão humana é outro ponto alinhado às melhores práticas internacionais.
“A resolução representa um marco regulatório importante ao reforçar que a decisão clínica final deve sempre permanecer com o médico, tendo a IA como ferramenta de apoio”, diz.
Nesse sentido, Assunção Junior define que o profissional passa a ser o “guardião contra a falha da máquina”. “Se o médico acatar uma sugestão errada da IA de forma acrítica, a responsabilidade é dele”, sintetiza.
O professor da Faculdade Sírio-Libanês destaca, contudo, que o documento não é unilateralmente punitivo. “A norma também parece proteger o médico contra responsabilização indevida por falhas exclusivas da IA, desde que comprovado o uso diligente, crítico e ético da ferramenta.”
Paciente deve ser informado
A resolução determina que o paciente seja informado de maneira clara quando a IA for utilizada como apoio relevante em seu cuidado – e que seja respeitada uma eventual recusa quanto ao uso da tecnologia.
Sobre esse aspecto, Assunção Junior pondera que a transparência com o paciente exigirá orientações adicionais. “Um sistema de agendamento exige o mesmo nível de comunicação (ao paciente) que um algoritmo que auxilia no diagnóstico de câncer?”, provoca.
O texto reforça ainda a necessidade de cumprimento da Lei Geral de Proteção de Dados (LGPD) como forma de proteger as informações do paciente. Por isso, modelos que não garantam padrões mínimos de segurança da informação não poderão ser utilizados.
Desafios
Para os especialistas, a norma traz dois grandes desafios:
Prazo
Assunção Junior aponta que a principal lacuna do documento é operacional. “Exigir comissões de IA, auditoria algorítmica contínua e governança estruturada em seis meses pode ser um grande desafio para instituições que ainda lutam com a digitalização básica”, explica.
Formação
Por fim, o avanço da IA na rotina clínica deve ter impacto na formação dos profissionais de saúde. “O currículo precisará trazer questões éticas, segurança de dados e cibersegurança. Um esforço deverá ser feito para promover AI Literacy (literacia em inteligência artificial) no contexto médico”, destaca Cazella.
Para Assunção Junior, não se trata de transformar médicos em cientistas de dados, mas em profissionais capazes de apresentar à máquina as perguntas certas e, principalmente, desconfiar das respostas. “Esses sistemas podem gerar respostas plausíveis, mas factualmente incorretas”, enfatiza ao mencionar a IA generativa.
Segundo ele, o médico também precisará aprender a traduzir os resultados da IA em linguagem compreensível para o paciente.

