logo-a-verdade.svg
Portugal
Leitura: 4 min

Ordem dos Médicos alerta para os riscos do uso da Inteligência Artificial na saúde

Bastonário afirma que ferramentas como o ChatGPT não substituem o julgamento clínico nem devem ser usadas para diagnóstico médico.

Redação

A Ordem dos Médicos manifestou preocupação com o uso crescente de ferramentas de inteligência artificial (IA) na área da saúde, sublinhando os riscos associados à sua utilização sem supervisão médica. O alerta foi feito pelo bastonário Carlos Cortes, que considera inaceitável que sistemas como o ChatGPT sejam encarados como substitutos de profissionais de saúde.

“É fundamental afirmar que a IA não é, nem pode ser, um substituto do julgamento clínico, da experiência médica nem do contacto humano. O diagnóstico é parte essencial do ato médico, que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia”, declarou Carlos Cortes.

O bastonário defende que a IA deve ser vista como uma ferramenta de apoio à decisão clínica e nunca como um agente autónomo de diagnóstico. “Faltam evidência científica robusta, mecanismos de validação rigorosos e, sobretudo, transparência algorítmica que permita aos médicos compreender e confiar nas decisões sugeridas”, acrescentou.

Riscos para a segurança dos doentes

A Comissão para a Inteligência Artificial da Ordem dos Médicos destaca que a adoção da IA na medicina deve respeitar princípios como a explicabilidade, a responsabilização e a supervisão médica contínua. A integração destas tecnologias nos fluxos clínicos deverá garantir o respeito pelos princípios éticos da autonomia, da não maleficência e da justiça.

Carlos Cortes alertou ainda para as consequências potencialmente graves de diagnósticos errados gerados por sistemas de IA, como atrasos no início de tratamentos adequados, agravamento do estado clínico, aplicação de terapias desnecessárias e até perda de vidas humanas. “Além disso, estes sistemas não assumem responsabilidade moral”, sublinha.

A opacidade de muitos algoritmos agrava a situação, dificultando a identificação de erros e comprometendo a confiança dos doentes no sistema de saúde.

Falta de regulação em Portugal

Embora até ao momento não tenham sido identificados em Portugal casos de consequências clínicas relevantes associadas ao uso de IA, Carlos Cortes avisa que a ausência de casos não deve ser confundida com ausência de risco. “A implementação de tecnologias disruptivas exige vigilância, capacidade de auditoria, sistemas de reporte estruturado e regulação proativa”, afirmou.

O bastonário apontou também a inexistência, em Portugal, de uma entidade dedicada ao acompanhamento da inteligência artificial no setor da saúde como uma “lacuna grave”, tendo em conta que estão em causa a segurança clínica, os direitos dos doentes e a integridade do ato médico.

Desinformação nas redes sociais

As declarações do bastonário surgem na sequência de alertas emitidos pela plataforma espanhola Maldita, que denunciou a circulação de testemunhos em redes sociais de utilizadores que recorreram a ferramentas de IA para obter diagnósticos médicos. Exemplos incluem alegações como “pedi ao ChatGPT para ler a minha mão e ele detetou cancro de pele” ou “ChatGPT diagnostica uma mulher com cancro um ano antes dos médicos”.

Contudo, os especialistas alertam que os resultados apresentados por chatbots como o ChatGPT baseiam-se em probabilidades e dependem de dados de treino que nem sempre são fiáveis. Além disso, não conseguem realizar a análise abrangente, individualizada e contextual que caracteriza a prática médica.