Fundado en 1910
tribunaDavid López

¿Estamos realmente asistiendo al nacimiento de la inteligencia artificial de propósito general?

Mitos y realidades sobre el nuevo modelo de inteligencia artificial desarrollado por OpenAI

Tras los dramáticos eventos de la semana pasada en la compañía OpenAI, circulan todo tipo de rumores sobre las razones que llevaron al director científico de la compañía, Ilya Sutskever, y su junta directiva a la destitución de su CEO, Sam Altman. Aunque aún no se conocen todos los detalles parece ser que un nutrido grupo de trabajadores, alarmados por recientes avances tecnológicos de dicha compañía, elevaron una carta de protesta a la junta directiva expresando su preocupación por el inminente riesgo asociado a la emergencia de una inteligencia artificial de propósito general.

Quienes se preocupan sobre si la inteligencia artificial de propósito general plantea un riesgo existencial para los humanos temen que sus capacidades puedan dar lugar a la aparición de una inteligencia artificial no controlada capaz de fijar sus propios objetivos y comenzar a interactuar con el mundo físico o digital de forma autónoma. Como apuntaba el alma mater de OpenAI, Ilya Sutskever, en una reciente charla en TED nada impedirá en el futuro que una inteligencia artificial sea capaz de mejorarse a sí misma desarrollando sucesivas inteligencias artificiales en un ciclo infinito. ¿Recuerdan ustedes la película Terminator?

El reciente revuelo en OpenAI, parece ser, tiene origen en el desarrollo de un nueva inteligencia artificial denominada Q* (pronunciado Q estrella), capaz de aprender a realizar operaciones matemáticas de nivel de escuela primaria.

Muchos expertos, empleados de OpenAI incluidos, consideran que la capacidad de resolver problemas matemáticos, si bien todavía elementales, constituye un hito en el desarrollo de una inteligencia artificial de propósito general.

Nadie podrá negar la casi mágica capacidad de ChatGPT para crear nuevos contenidos, editar imágenes, traducir textos y un sinfín de otras maravillas que ahorran tiempo y esfuerzo. ChatGPT, no obstante, es incapaz de resolver problemas matemáticos elementales de forma fiable. ChatGPT adolece de la capacidad de comprender conceptos abstractos y de utilizarlos en procesos de razonamiento.

En este sentido, la capacidad matemática se considera como un requisito necesario para poder razonar. Una máquina capaz de razonar utilizando lenguaje matemático podría, en teoría, aprender a realizar otras tareas que se basen en información existente, como escribir código de computadora, argumentar en un debate o extraer conclusiones de un artículo de noticias. Las matemáticas son un desafío particularmente difícil porque requieren que los modelos de IA tengan la capacidad de razonar y comprender realmente con lo que están tratando no solamente de repetir y combinar texto o imágenes como es el caso de ChatGPT.

Pero aunque una capacidad matemática elemental constituye un avance hacia sistemas de inteligencia artificial más «inteligentes», resolver este tipo de problemas matemáticos no necesariamente indica el nacimiento de una superinteligencia. Resolver problemas de matemáticas de primaria es muy, muy diferente de ser capaces de desarrollar nuevas teorías matemáticas.

Construir un sistema de inteligencia artificial que pueda resolver ecuaciones matemáticas es un desarrollo interesante, si es que eso es realmente lo que Q* puede hacer. Una comprensión más profunda de las matemáticas podría abrir aplicaciones para ayudar en investigación científica e ingeniería, por ejemplo. La capacidad de generar respuestas matemáticas podría ayudarnos a desarrollar tutorías personalizadas de mejor calidad, o ayudar a los matemáticos a hacer álgebra más rápidamente o resolver problemas más complicados.

No es la primera vez que un nuevo modelo ha generado entusiasmo por la inteligencia artificial general. Hace un año se decía algo similar sobre Gato, un sistema desarrollado por DeepMind (empresa de Google) capaz de jugar a videojuegos de Atari, describir imágenes, chatear y apilar bloques con un brazo robótico real. En ese momento, algunos investigadores y expertos tecnológicos afirmaron que DeepMind estaba «al borde» de la inteligencia artificial general debido a la capacidad de Gato para realizar diversas actividades muy diferentes entre sí. Como dirían los británicos: ¿mismo vino en diferente botella ?

La estructura directiva de OpenAI fue diseñada ex profeso para impedir que dicha empresa desarrollase inteligencias artificiales peligrosas para la humanidad. El drama de la pasada semana pasada nos ha demostrado que las consideraciones financieras siempre terminan prevaleciendo en las empresas tecnológicas. También dificultará la argumentación sobre una posible auto-regulación de dichas empresas en lo concerniente a la inteligencia artificial. Legisladores, tomen nota.

  • David López es CEO de CyberBlue