CFM define limites para IA na medicina – e a decisão final deve ser sempre humana

Wait 5 sec.

O Conselho Federal de Medicina (CFM) lançou a primeira regra sobre o uso de inteligência artificial (IA) na medicina brasileira. A resolução, publicada nesta sexta-feira (27), define que a tecnologia deve servir apenas como ferramenta de apoio, sem substituir a decisão final do médico.As novas normas entram em vigor em 180 dias e estabelecem que a responsabilidade final por diagnósticos e tratamentos permanece com o profissional humano. Além disso, fica expressamente proibido que sistemas automáticos deem resultados ou sugiram tratamentos diretamente aos pacientes sem um médico explicar a situação.Resolução do CFM institui critérios de segurança e governança para uso de IAA resolução cria critérios de segurança e gestão para o uso de tecnologias com IA. Foi estabelecida uma escala de risco com quatro níveis para classificar os sistemas de IA: baixo, médio, alto e inaceitável. Para definir em qual nível uma tecnologia se enquadra, a norma avalia o seguinte:Impacto nos direitos fundamentais: Se o uso da tecnologia pode afetar direitos básicos e garantias do paciente;Gravidade clínica: Quão crítico é o contexto de saúde e a gravidade da condição médica tratada;Sensibilidade dos dados: A natureza das informações (dados sensíveis) que o sistema de IA processa;Grau de autonomia: Nível de independência do sistema na geração de resultados e sugestões.A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico, segundo a resolução do CFM (Imagem: Amir Sajjad/Shutterstock)Sempre que a IA for um apoio relevante no atendimento, o médico é obrigado a registrar o uso no prontuário para garantir que o processo possa ser rastreado. Além disso, o profissional mantém sua autonomia, o que significa que nenhum médico pode ser forçado a seguir sugestões da máquina. A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico.Outro ponto importane: o paciente tem o direito de recusar o uso da IA em seu tratamento e deve ser informado sobre o uso da tecnologia com antecedência. E o uso dessas ferramentas não dispensa o médico de seguir o Código de Ética Médica. Em caso de falhas exclusivas do sistema, o médico não será punido, desde que tenha agido com cuidado e relatado o erro. O profissional tem o dever de comunicar riscos ou falhas às autoridades de fiscalização assim que as detectar.Hospitais e clínicas que utilizarem IA deverão criar uma Comissão de IA e Telemedicina chefiada obrigatoriamente por um médico. Esse grupo será responsável por fiscalizar e monitorar as ferramentas para garantir o uso ético. Por fim, o funcionamento de qualquer modelo de IA deve respeitar rigorosamente a Lei Geral de Proteção de Dados (LGPD).(Essa matéria também usou informações de G1.)O post CFM define limites para IA na medicina – e a decisão final deve ser sempre humana apareceu primeiro em Olhar Digital.