Aunque me digas su precio, no podrás decirme su valor
Los valores necesitan de seres humanos para campar a sus anchas. Y, cuando parezca que no hay ningún ser humano detrás de ellos, nuestra tarea será jugar al escondite para descubrir dónde se ocultan
El impacto de la inteligencia artificial en el empleo
Si, ahora mismo, te preguntara sobre el precio del oro, no sería demasiado difícil resolver la cuestión. Probablemente lo pondrías en Google o algún buscador y lo tendrías, o quizá lo resolverías a través de alguna Inteligencia Artificial generativa, como ChatGPT. Sin embargo, todo cambiaría si te preguntara por el valor porque, o bien ChatGPT no sabe precisarlo, o bien te engaña vilmente. Y es que, valor y precio no son lo mismo, y esto para la IA generativa, debería ser un problema grave.
El precio de las cosas es la convención monetaria o en especie que hemos alcanzado para determinar equivalencias. Debe ser concreto y puede ser negociable, pero hablamos de una cantidad. Sin embargo, cuando hablamos de valor, hablamos de un predicado muy distinto, porque estamos hablando de la no-indiferencia que el mundo genera en nosotros, que conlleva una jerarquización de aquello que forma parte del mundo. Así como en el precio podemos conocer la convención que concreta un cálculo preciso, en el caso de los valores asistimos a que éstos no son demostrables tal y como se demuestra o desglosa el precio de un objeto. Lo propio de los valores es dar valor en el mundo y generar contravalores en contraposición. Y esto genera un problema para la IA generativa: la determinación de aquello que es valioso o de aquello que no lo es.
Lo propio de los valores es dar valor en el mundo y generar contravalores en contraposición
Ahora bien, ¿es posible exponer algo sin aplicar valores? Ciertamente, en el momento que tomamos distintas fuentes para elaborar un contenido ya estamos aplicando un valor a una fuente por encima del que asumimos para otras fuentes, de modo que preferimos unas fuentes a otras en función del valor que le aplicamos. Las «redes neuronales» de la IA generativa, con sus tokens y sus algoritmos, ejecutan este proceso constantemente, aplicando una serie de valores a la producción de información. Quizá esto para el lector no resulte problemático, pero aquí tenemos el germen de un proceso altamente peligroso.
¿Es posible exponer algo sin aplicar valores?
El ser humano es capaz de descubrir valores y aplicarlos desde su propia libertad, e incluso es capaz de ignorar estos mismos valores. La capacidad de valorar es inherente al ser humano, y esto es algo que le lleva, casi de manera automática, a concatenar juicios de valor que le permiten descubrir el mundo y su configuración. Esto es algo ineludible a la actividad humana y lo asumimos en nuestras interacciones personales. Sin embargo, ¿cómo gestiona la asunción de valores la IA generativa? Aunque esta pregunta pueda parecer de importancia menor, en ella nos jugamos la credibilidad que damos al trabajo que realiza esta herramienta de alta efectividad en el desarrollo de nuestra vida cotidiana.
La capacidad de valorar es inherente al ser humano
Los valores no pueden ser inherentes a la información que nos transmite la IA generativa, aunque se contengan en esa información. Es por eso que, necesariamente, la IA debe hacer un proceso de valoración a la hora de elaborar los contenidos solicitados. Ahora bien, ¿quién le ha transmitido estos valores? ¿De dónde salen? ¿Se los ha dado ella a sí misma? Obviamente no, en tanto que ella a sí misma se da una mejora exponencial en la elaboración de contenidos, pero no puede generar funciones más allá de lo que es. Si esto es así, los valores le son transmitidos y, con ellos, de manera sutil, sesgos informativos que nos son transmitidos de maneras imperceptibles, o a veces, de manera absurda.
¿Cuántos sesgos sutiles aplican en la IA generativa sin que nosotros nos demos cuenta?
Recuerdo un ejemplo de un youtuber especializado en informática que cuenta cómo pidió a una IA generativa de imágenes una ilustración de un soldado nazi y, como la herramienta estaba programada para ser inclusiva, generó una imagen de un nazi cuyo color de piel era opuesto a lo que entendemos por «ario». El error no fue de la IA, puesto que ella debía generar contenido inclusivo, pero, sin saberlo, generó un anacronismo irónico a causa del sesgo inclusivo con el que había sido programada. Este ejemplo es de los burdos, pero ¿cuántos sesgos sutiles aplican en la IA generativa sin que nosotros nos demos cuenta?
Todos sabemos que, si entrenáramos una IA generativa con los contenidos periodísticos de la prensa española, el resultado variaría mucho en función del campo de entrenamiento escogido. Del mismo modo, la asunción por parte de la IA generativa de información no es algo inocente o integral: nuestra ayudante, junto con la información proporcionada, también nos transmite elementos ocultos en el metaverso que, más allá de conspiraciones cibernéticas, nos configuran más ellos a nosotros que nosotros a ellos.
Puede que mañana la IA generativa avance en la gestión de los valores
Puede que mañana la IA generativa avance en la gestión de los valores y en cómo estos influyen en la información que genera, o que su comprensión cada vez sea más sofisticada. Sin embargo, el ejercicio de la libertad que reclama la asunción de los valores es algo que no creo que esté en el horizonte de esta herramienta que, si bien es altamente sofisticada, dudo que sea capaz de determinar qué tiene más valor: si un paseo por la playa o una tarde de cine, independientemente del precio.
- Domingo Pacheco es sacerdote diocesano de Valencia, Capellán y director de la Cátedra de Teología Joseph Ratzinger de la Universidad CEU Cardenal Herrera y Consiliario Diocesano de Juniors M.D. Licenciado en Teología Histórica y Máster en Ética y Democracia. Es, además, coordinador del Grupo de Reflexión sobre IA del área de Filosofía y Ética del CEU.