Comunicado de www.vaticannews.va —
En un debate abierto en el Consejo de Seguridad de la ONU en Nueva York, el secretario vaticano para las Relaciones con los Estados y las Organizaciones Internacionales subrayó la “realidad urgente” de los riesgos vinculados al desarrollo de la inteligencia artificial en el ámbito militar. Reiteró el llamado de la Santa Sede a una “moratoria inmediata” sobre las armas letales autónomas y alertó sobre los peligros de emplear la IA en los sistemas de mando y control nuclear.
Isabella H. de Carvalho – Ciudad del Vaticano
Es necesario adoptar “un enfoque centrado en el ser humano en el desarrollo y uso de las tecnologías emergentes”, especialmente en el campo militar, ya que estas no pueden sustituir “el juicio humano en cuestiones de vida o muerte”, pues al hacerlo se traspasarían límites “que nunca deben ser superados”. Así lo advirtió el arzobispo Paul Richard Gallagher, secretario para las Relaciones con los Estados y las Organizaciones, en su intervención del 24 de septiembre durante un debate abierto en la sede de Naciones Unidas en Nueva York.
El encuentro, organizado por el Consejo de Seguridad de la ONU, giró en torno a la inteligencia artificial, la paz y la seguridad internacional. Mons. Gallagher recalcó que “si el desarrollo y el uso de la inteligencia artificial no están firmemente anclados en el respeto de la dignidad humana y en la búsqueda del bien común”, existe el riesgo de que se conviertan en “instrumentos de división y agresión” y que lleguen a “alimentar nuevos conflictos”. No se trata de “una preocupación abstracta o lejana”, añadió, sino de “una realidad urgente, dada la actual inestabilidad global y la rápida integración de la inteligencia artificial en los sistemas de armas convencionales y nucleares”.
Una moratoria sobre las armas letales autónomas
Como lo ha reiterado en diversas ocasiones a lo largo de los últimos años, el secretario vaticano reafirmó que la Santa Sede “apoya firmemente la adopción de una moratoria inmediata sobre el desarrollo” de los sistemas de armas letales autónomas (sistemas letales de armas autónomos, LAWS). La creación de estas tecnologías “plantea graves preocupaciones” a nivel jurídico, humanitario, ético y de seguridad para la comunidad internacional, ya que son sistemas “carentes de la capacidad humana” de discernimiento moral y juicio ético.
La Santa Sede, continuó el arzobispo, insiste en la necesidad de establecer “un instrumento jurídicamente vinculante que garantice que las decisiones sobre la vida y la muerte permanezcan bajo un control humano significativo”.
Gallagher alertó además sobre “la preocupante emergencia de una nueva carrera armamentista, marcada por la integración de la inteligencia artificial en los sistemas militares”, incluidas las tecnologías espaciales y de defensa antimisiles.
A su juicio, este contexto podría “alterar la naturaleza misma de las armas y de la guerra”, generando “un nivel de incertidumbre sin precedentes”. De manera particular, advirtió, “el uso de la inteligencia artificial en los sistemas de mando y control nuclear podría conllevar nuevos riesgos desconocidos que van mucho más allá de la ya frágil y moralmente cuestionable lógica de la disuasión”.
El papel del Consejo de Seguridad
El prelado recordó finalmente que el Consejo de Seguridad tiene “la responsabilidad primaria de mantener la paz y la seguridad internacionales” y, por ello, debe “prestar especial atención a los avances científicos y tecnológicos” que marcan el mundo contemporáneo.
Agradeció a Corea del Sur por haber convocado el debate sobre este tema de máxima actualidad y precisó que la inteligencia artificial ya está teniendo “un profundo impacto” en ámbitos como la educación, el trabajo, la comunicación, la salud y muchos otros. Esta tecnología, comentó Gallagher, “tiene el potencial de contribuir a realizar” las aspiraciones “que guiaron la creación de las Naciones Unidas hace ochenta años”: la paz, la seguridad, la libertad y la garantía de los derechos humanos.
Se publicó primero como Gallagher: la tecnología no puede sustituir el juicio humano