Fundado en 1910

GTRES

Los creadores de ChatGPT piden una regulación para evitar que la IA destruya a la humanidad

Los fundadores de la compañía reiteran la necesidad de poner coto a los potenciales peligros de unas tecnologías «superinteligentes»

Los fundadores de OpenAI, la compañía desarrolladora de ChatGPT, creen que las inteligencias artificiales (IA) «superinteligentes» tienen el potencial de crear algo capaz de destruir a la humanidad, y por ello piden la creación de un organismo equivalente a la Agencia Internacional de Energía Atómica que la regule y, por tanto, evite o minimice ese escenario.

En una breve nota publicada en el sitio web de la compañía, los cofundadores Greg Brockman e Ilya Sutskever y el director ejecutivo, Sam Altman, piden que un regulador internacional comience a trabajar en cómo «inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad [e] imponer restricciones en los grados de implementación y los niveles de seguridad» para reducir el «riesgo existencial» que dichos sistemas podrían plantear.

«Es concebible que dentro de los próximos 10 años, los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad», escriben. «En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero, pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos».

A más corto plazo, los firmantes piden «cierto grado de coordinación» entre las empresas que trabajan en la investigación de vanguardia de la IA para garantizar que el desarrollo de modelos cada vez más potentes se integre sin problemas con la sociedad al tiempo que se prioriza la seguridad. Esa coordinación podría venir a través de un proyecto dirigido por el gobierno, por ejemplo, o a través de un convenio colectivo para limitar el crecimiento de la capacidad de IA.

Entre los riesgos que enumera el Centro para la Seguridad de la IA (CAIS), con sede en EE.UU., se mencionan, por ejemplo, aquellos derivados de la «pérdida humana de la capacidad de autogobierno y de volverse completamente dependiente de las máquinas» en caso de que a los sistemas de IA se les entregue conscientemente cada vez más trabajo. Esto, señala CAIS, implica el riesgo de que un pequeño grupo de personas que controlan sistemas poderosos pudiera «hacer de la IA una fuerza centralizadora», lo que llevaría a un «bloqueo de valores» y a un sistema de castas eterno.

En este sentido, los líderes de OpenAI dicen que esos riesgos significan que «las personas de todo el mundo deberían decidir democráticamente los límites y los valores predeterminados de los sistemas de IA», pero admiten que «todavía no sabemos cómo diseñar un mecanismo de este tipo». No obstante, también dicen que el desarrollo continuo de sistemas poderosos vale la pena el riesgo.

«Creemos que conducirá a un mundo mucho mejor de lo que podemos imaginar hoy (ya estamos viendo ejemplos tempranos de esto en áreas como la educación, el trabajo creativo y la productividad personal)», escriben, según recoge The Guardian. Pero también advierten, al mismo tiempo, de que podría ser peligroso pausar el desarrollo. «Debido a que las ventajas son tan enormes, el costo de construirlo disminuye cada año, la cantidad de actores que lo construyen aumenta rápidamente y es inherentemente parte del camino tecnológico en el que nos encontramos. Detenerlo requeriría algo así como un régimen de vigilancia global, e incluso eso no garantiza que funcione. Así que tenemos que hacerlo bien».