Comunicado de www.vaticannews.va —
Al término de la conferencia «Inteligencia Artificial y Medicina», celebrada en Roma en la Curia Generalicia de los Jesuitas, la Pontificia Academia para la Vida y la Federación Mundial de Médicos Católicos señalan algunos principios éticos fundamentales para la IA en la práctica médica. Emplear las nuevas tecnologías para mejorar el juicio clínico, respaldar la precisión diagnóstica y optimizar los resultados de los pacientes.
Noticias del Vaticano
En la tarde de hoy, martes 11 de noviembre, al término de los trabajos del congreso internacional organizado por la Federación Internacional de Asociaciones Médicas Católicas (FIAMC) y la Pontificia Academia para la Vida (PAV), que se ha celebrado en la Curia Generalicia de la Compañía de Jesús, se han dado a conocer una serie de principios éticos fundamentales para el uso de la Inteligencia Artificial en la práctica médica.
Monseñor Renzo Pegoraro, presidente de la PAV, y el profesor Bernard Ars, presidente de la Federación Mundial de Asociaciones de Médicos Católicos, han declarado conjuntamente que el asombro por los extraordinarios resultados alcanzados por el desarrollo de los sistemas de IA no puede desvincularse de la preocupación por el impacto de esos mismos resultados en las relaciones personales y sociales. Recordando las indicaciones ya trazadas por el Papa Francisco en este ámbito, según las cuales «la dignidad intrínseca de cada ser humano y la fraternidad que nos une como miembros de la única familia humana deben sustentar el desarrollo de las nuevas tecnologías y servir como criterios indiscutibles para evaluarlas antes de su uso», en el comunicado final del congreso se recuerda que, en el ámbito de la asistencia sanitaria, «es fundamental que la IA sea una ayuda que mejore el juicio clínico, respalde la precisión diagnóstica y mejore los resultados de los pacientes, sin sustituir nunca la competencia, la empatía o la responsabilidad del médico».
Supervisión, criterio clínico, transparencia
La IA debe seguir estando subordinada al razonamiento clínico del médico, subrayan la PAV y la FIAMC: «Las decisiones relativas al tratamiento de los pacientes y la responsabilidad que estas conllevan deben seguir siendo competencia del ser humano y nunca deben delegarse a la IA». En el proceso de utilización de la IA, precisan, el médico debe tener cuidado de «no dejarse hipnotizar por el encanto de los resultados tecnológicos». También se pronuncian sobre la transparencia y la interpretabilidad: «Los médicos deben ser capaces de comprender y explicar cómo se generan las recomendaciones derivadas de la IA. Los algoritmos de caja negra que carecen de interpretabilidad corren el riesgo de socavar la confianza y la responsabilidad clínica, lo que induce a la descalificación y la delegación de responsabilidades».
Equidad y confidencialidad
Se exige además la máxima vigilancia por parte de los profesionales sanitarios ante el riesgo de que datos incompletos o distorsionados puedan perpetuar las desigualdades. Siempre desde el punto de vista de la garantía de equidad, se afirma que la IA no debe ampliar la brecha entre los contextos ricos en recursos y los contextos pobres en recursos. Todos los pacientes, independientemente de su ubicación geográfica o su situación socioeconómica, deben poder beneficiarse de los avances tecnológicos: «Optimizar los recursos significa utilizarlos de manera ética y fraternal, sin penalizar a los más vulnerables». Se recomienda promover datos inclusivos y representativos en el desarrollo de la IA.
Se advierte al personal médico sobre el uso de los datos de los pacientes en las aplicaciones de IA: este debe cumplir con las normas legales y éticas. La confidencialidad profesional también debe trasladarse al contexto de la IA. Además, afirman la PAV y la FIAMC, «sería importante distinguir cuándo el error es atribuible al médico por un uso indebido de estos sistemas, o cuándo es única y exclusivamente atribuible al hospital que gestiona y configura la herramienta, o a la empresa de IA».
Privacidad, responsabilidad
Las técnicas numéricas basadas en cálculos, por muy eficaces que sean, presentan muchas limitaciones epistemológicas y lógicas. Por lo tanto, concluyen monseñor Pegoraro y el profesor Ars, no pueden sustituir todas las facetas del pensamiento humano y todas las dimensiones de las relaciones humanas. De hecho, algunas dimensiones profundas del cuidado del paciente no pueden ser sustituidas por procedimientos numéricos optimizados y robots autónomos. El criterio rector fundamental es que «el paciente no es un problema que hay que resolver (con IA u otras tecnologías), sino un misterio que revela al mismo Cristo».
Se publicó primero como La IA no puede sustituir competencia y responsabilidad del médico


