Fundado en 1910

08 de septiembre de 2024

La caja negra de la inteligencia artificial

La caja negra de la inteligencia artificial

¿Qué hay en la caja negra de la IA? Los creadores de ChatGPT alertan del riesgo de que supere al ser humano

Desde que la inteligencia artificial (IA) llegó a la sociedad tal y como lo conocemos, el término 'caja negra' ha cobrado relevancia. La creciente preocupación por la opacidad de los sistemas avanzados de IA plantea preguntas sobre la transparencia, la confianza y la ética en el desarrollo y uso de estas tecnologías.

Un extrabajador de OpenAI firmó esta semana una carta junto con otros empleados de la empresa creadora de ChatGPT para denunciar la opacidad sobre los posibles riesgos de la IA. Advierten del peligro de una carrera en el sector por crear una super IA o inteligencia artificial general (IAG) que sea tan o más inteligente que el ser humano.

Carroll Wainwright renunció a su puesto como parte del equipo de alineamiento práctico y superalineamiento, que vigila que los modelos más potentes de OpenAI sean seguros y vayan en consonancia con los valores humanos.

Una IA súperinteligente

Cuando se lanzó el chatbot ChatGPT, Wainwright empezó a trabajar en un equipo de superalineamiento para investigar, a medida que OpenAI obtenía modelos cada vez más inteligentes, las intervenciones técnicas que se pueden realizar para mantener el control sobre ellos.

A diferencia de la IA generativa, la IAG no solo sería capaz de reproducir las acciones humanas como escribir o dibujar, cosa que ya hace la IA generativa, sino que también comprendería la complejidad y el contexto de sus acciones.

Esta tecnología aún no existe. Algunos expertos, como Elon Musk, predicen que se creará en unos dos años, mientras que otros como Robin Li, director ejecutivo de Baid, una de las mayores tecnológicas de China, dice que llegará en una década.

Si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serioCarroll WainwrightExempleado de OpenIA

Wainwright cree que podría verse en unos cinco años: «¿Seguro que sucederá en cinco años? No, pero creo que es posible. También es posible que lleve mucho más tiempo. Pero si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serio», matiza.

No obstante, el extrabajador señala que el motivo por el que renunció y luego firmó la carta no se debe a que encontró algo «aterrador», ya que por ahora OpenAI solo está investigando la posibilidad de crear tecnología.

¿Qué es una caja negra en la IA?

Una «caja negra» en la inteligencia artificial es un modelo o sistema cuyos procesos internos son complejos y no son fácilmente interpretables. A pesar de que los modelos de IA, especialmente los basados en redes neuronales profundas, pueden realizar tareas con una precisión impresionante, el camino que siguen para llegar a sus conclusiones suele ser incomprensible.

Esto contrasta con los modelos más simples, como los árboles de decisión o las regresiones lineales, que son transparentes y fáciles de entender.

​Los sistemas de IA avanzados, como los algoritmos de aprendizaje profundo, funcionan mediante el ajuste de millones de parámetros internos a través de procesos iterativos de entrenamiento con grandes cantidades de datos. Este ajuste se realiza de manera que el sistema optimiza su rendimiento para una tarea específica, como el reconocimiento de imágenes o el procesamiento del lenguaje natural. Sin embargo, esta optimización genera una estructura interna extremadamente compleja, donde incluso los diseñadores del sistema no pueden seguir el rastro de todas las conexiones y decisiones.

El principal detonante de su renuncia fue el cambio de visión de la compañía, que comenzó como un laboratorio de investigación sin fines de lucro «con la misión de que esta tecnología realmente beneficie a la humanidad», tras el enorme éxito ChatGPT en 2022.

«Creo que las motivaciones que impulsan a OpenAI en sus acciones cotidianas son casi en su totalidad incentivos para obtener ganancias», asegura Wainwright.

Los tres riesgos de la IAG

Wainwright subraya tres riesgos de la IAG: que las máquinas sustituyan a los trabajadores, el impacto social y mental, ya que la gente podría tener un amigo/asistente personal de IA y, por último, el control de la tecnología.

«El riesgo de alineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanos. ¿Cómo se puede estar seguro de que ese modelo realmente está haciendo lo que el humano desea que haga o que la máquina no tenga un objetivo propio?. Y si tiene un objetivo propio es preocupante», explica.

El riesgo de alineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanosCarroll WainwrightExempleado de OpenIA

Wainwright piensa que las grandes empresas de la IA respetarán las regulaciones, el problema es que por el momento no se han implantado, es por ello que los empleados de este sector piden en su carta que se cree un sistema en el que los trabajadores puedan alertar a un organismo independiente de los peligros que ven en sus empresas.

OpenIA y Google

Según el exempleado, el problema de los gigantes de la IA no es la falta de seguridad, sino la rapidez a la que se enfrentan debido a la rivalidad de las empresas, sobre todo entre OpenAI y Google.

«El hecho de que nadie quiera que ocurra un desastre no significa que vayan a tomarse el tiempo para asegurarse de que no suceda. Ya que existe el incentivo de competir y vencer a todos los demás», resalta.

Comentarios
tracking