¿Tiene sentido que la Iglesia entre en el debate sobre la inteligencia artificial?
Dos expertos analizan La Llamada de Roma, un documento vaticano que defiende una serie de principios éticos para el desarrollo futuro de los algoritmos
El pasado 10 de enero, representantes cristianos, judíos y musulmanes firmaban La Llamada de Roma, un documento impulsado por la Pontificia Academia para la Vida que plantea una serie de principios éticos para orientar el desarrollo de la inteligencia artificial (IA). En concreto, fueron el arzobispo Vincenzo Paglia, el rabino Eliezer Simha Weisz y el jeque Abdallah bin Bayyah.
Inspirada en la encíclica Fratelli tutti, la propuesta vaticana plantea la necesidad de que el desarrollo de la IA «respete la dignidad de la persona, de modo que cada individuo pueda beneficiarse de los avances tecnológicos, y que no tenga como único objetivo un mayor beneficio o el reemplazo gradual de las personas en los puestos de trabajo». Ante ella, no obstante, cabe preguntarse si documentos como este tienen impacto real o si es otro intento fútil de poner puertas al campo.
«Tiene todo el sentido plantear ahora los fundamentos de una ética para la IA, porque estamos aún en un punto temprano en el desarrollo de esta tecnología», señala el doctor en Informática y Telecomunicaciones Alex Rayón, vicerrector de Relaciones Internacionales y Transformación Digital en la Universidad de Deusto. Rayón, aboga, en este sentido, por defender «unos mínimos morales compartidos».
Por su parte, la doctora en Ingeniería Industrial Sara Lumbreras, co-directora de la Cátedra Hana y Francisco José Ayala de Ciencia, Tecnología y Religión de la Universidad Pontificia Comillas, califica la firma de la Llamada de Roma como algo «no solo útil, sino muy útil, porque empieza a visibilizar los problemas». La profesora incide en que establecer unos principios éticos permitirá después desarrollar guías o reglamentos concretos a través de los cuales se puedan auditar los algoritmos.
Autenticidad y condicionamiento algorítmico
Analizando la Llamada de Roma, Lumbreras celebra algunas novedades que introduce el documento vaticano, como -por ejemplo- que mencione explícitamente que debe estar claro que cuando nos relacionemos con una IA no estamos interaccionando con una persona real, algo que preocupa especialmente a la vista de casos como el chatbot chino de Microsoft XiaoIce, que se muestra con el avatar de una chica adolescente.
Lumbreras lamenta que haya quien diga preferir esta «novia virtual» a una relación real, y propone algunas propuestas frente a nuestra tendencia a humanizar a estos asistentes virtuales, como prohibir que las IAs lleven nombres humanos –que, además, casi siempre son de mujer– o asegurar que su voz sea claramente distinta a la de un humano.
El riesgo es que haya personas que se queden fuera
La investigadora también agradece el énfasis con el que la Llamada de Roma advierte de los riesgos del condicionamiento algorítmico. «Cuando delegamos nuestras decisiones en algoritmos, renunciamos voluntariamente a una parte de nuestra libertad a cambio de eficiencia y comodidad», previene Lumbreras, quien celebra, además, que el texto destaque el valor de la transparencia –frente a desastres como la reciente polémica con el algoritmo de las autoridades tributarias holandesas– o que recuerde el impacto medioambiental del desarrollo de la IA, en línea con la encíclica Laudato Si.
Tanto Lumbreras como Rayón abogan por no cerrarse a la innovación, y la propia Llamada identifica algunos campos en los que el desarrollo de la IA puede producir beneficios para todos, como –por ejemplo– la optimización de la producción alimentaria. «El riesgo es que haya personas que se queden fuera, y la clave está en cómo organizamos el futuro del trabajo; esa es la pregunta clave de la automatización, pero es más político-económica que tecnológica», señala la investigadora.
La pregunta por lo humano remite a la pregunta por la Imago Dei
La antropología de la IA
Entrando en el fondo de la cuestión, ambos expertos combaten la idea de que el desarrollo tecnológico -de la IA, en este caso- sea neutro. «La tecnología –advierte Rayón– siempre tiene una intención, y el deseo de Alan Turing [pionero en la investigación sobre inteligencias artificiales] fue desde el inicio que la máquina fuera indistinguible del ser humano».
Rayón añade que –por ahora– la máquina solo es mejor que los humanos en una función –calcular–, pero todavía no, por ejemplo, en representar imágenes en el cerebro o en capturar información. «Por ejemplo –dice–, ChatGPT solo es bueno en la parte final del proceso productivo, ante un problema conocido y que implique realizar un gran número de cálculos».
Para Lumbreras, la tecnología «tiene por debajo muchas hipótesis». Entre ellas –puesto que se trata de replicarlo–, una respuesta a ¿ qué es el ser humano? «Esto está relacionado –añade la profesora– con el reduccionismo materialista: si lo que valoro del ser humano es su capacidad de cálculo, cuando desarrolle una IA que calcule mejor, lo veré como mejor que un ser humano». En este sentido, advierte de que «la IA es un espejo», y señala el riesgo de que la tecnología, al devolver una imagen reducida sobre qué es ser humano, la refuerce.
En un sentido trascendental, la pregunta por lo humano –señala Lumbreras– remite a la pregunta por la Imago Dei: ¿en qué sentido el hombre es «imagen de Dios»? «San Agustín y Santo Tomás dirían que es lo específicamente humano es la racionalidad, pero hoy –reflexiona la profesora– podríamos decir que hemos superado esa visión en favor de otros aspectos, como la libertad, la creatividad o la capacidad para formar relaciones, con el otro y con Dios». Y concluye: «La IA está aún fuera de estas cuestiones».