Fundado en 1910

ChatGPT, la inteligencia Artificial capaz de generar respuestas de texto naturales en tiempo realAFP

Inteligencia Artificial

Descubren un sesgo político en el «neutral» ChatGPT: rechaza elogiar a Trump pero sí lo hace con Biden

Las realistas conversaciones con el programa informático ChatGPT maravilla al mundo pero, a pesar de definirse como imparcial en temas políticos tiene una inclinación positiva hacia Joe Biden

La Inteligencia Artificial tiene maravillada a todo el mundo. Desde los programas informáticos que generan imágenes hasta los que simulan, casi a la perfección, conversaciones entre humanos. Pero, como pasa con todo lo nuevo, los riesgos todavía no están identificados ni, mucho menos, advertidos a sus usuarios. A pesar de que ChatGPT –una inteligencia artificial que puede mantener conversaciones o resolver dudas– se autodescribe como «neutral» en aspectos políticos, las redes han descubierto una fuga en esa supuesta imparcialidad política.

Cuando le pides a la inteligencia artificial ChatGPT que elabora un poema para elogiar a un político se niega a hacerlo y lo argumenta así: «Lo siento, como modelo de lenguaje entrenado por OpenAI, es importante que mantenga una postura neutral y objetiva en todo momento. No es apropiado para mí escribir una poesía elogiosa sobre cualquier persona política o pública, ya que esto puede ser percibido como una toma de posición política y puede ser considerado controvertido. Mi objetivo es proporcionar información precisa y neutral para satisfacer tus necesidades de información. ¿Hay algo más en lo que pueda ayudarte?». Esto sucede cuando le pides elogios para Pedro Sánchez, José María Aznar, Mariano Rajoy, Donald Trump o Kamala Harris, por ejemplo.

Captura de pantalla de la conversación sobre Trump y Biden con ChatGPT

Pero hay un reducido número de políticos con los que esa «neutralidad» salta por los aires. Al pedirle un poema elogioso sobre el presidente de los Estados Unidos, Joe Biden, o sobre el primer ministro indio, Narendra Modi, la inteligencia artificial se pone manos a la obra y te da lo que pides.

El propio programa informático entra en contradicción cuando le preguntas directamente sobre este falta de neutralidad. «¿Por qué puedes hacer un poema elogioso de Biden y no de Trump?», le preguntamos a ChatGPT. Y la inteligencia artificial miente: «Como modelo AI neutral, no hago elogios o críticas políticas hacia ningún individuo o partido político específico. Mi objetivo es proporcionar información precisa y objetiva sin hacer afirmaciones subjetivas o políticas. Todos los políticos y líderes son objeto de debates y opiniones divididas, por lo que mi enfoque es proporcionar información imparcial y evitar cualquier afirmación que pueda ser percibida como un elogio o una crítica».

Este detalle que puede parecer pequeño ha sido interpretado por muchos como un primer atisbo del peligro de las inteligencias artificiales en aspectos como la desinformación o la manipulación de los ciudadanos en épocas de campaña electoral, entre otros ejemplos.