Dudas éticas sobre la súper IA que dejará de «tonto» a ChatGPT
Las tecnológicas ya trabajan en el desarrollo de 'agentes' capaces de realizar casi cualquier tarea
Google, OpenAI y otras grandes tecnológicas preparan ya el relevo a los chatbots conversacionales, generadores de imágenes y vídeos y otras inteligencias artificiales (IA) que se han hecho célebres en los dos últimos años por la forma en que han cambiado la realización de tareas en un gran número de sectores. Son los llamados ‘agentes’, sistemas transversales capaces de hacer al instante casi cualquier tarea que se les asigne.
En un evento celebrado en abril en Las Vegas, Google Cloud presentó su propuesta, Vertex AI Agent Builder, sobre el que el consejero delegado, Thomas Kurian, dijo: «Aúna modelos fundacionales, el buscador y otras herramientas de desarrollo para facilitar la creación e implementación de agentes. Proporciona la comodidad de una plataforma de creación de agentes sin código junto con potentes capacidades. Ahora puedes crear rápidamente una variedad de agentes de IA basados en la búsqueda de Google y los datos de tu organización».
Por su parte, Sam Altman, director ejecutivo de OpenAI, ha dicho que herramientas de su compañía que hasta ahora han revolucionado la tecnología, como Dall-E, Sora o ChatGPT, son «increíblemente tontos» en comparación con lo que viene.
Por su parte, una investigación de más de 200 páginas publicada tan solo 10 días después de la presentación puso de manifiesto la peligrosa pendiente resbaladiza ética por la que podrían deslizarse este tipo de sistemas.
En concreto, son siete las áreas con más dudas al respecto, aunque el propio documento admite que «no anticipa ni puede anticipar todas las posibles implicaciones de las transiciones tecnológicas o sociales que permitirán los agentes», razón por la cual reclama el «seguimiento y la evaluación continua de la tecnología».
- Influencia. Los investigadores señalan que, con sus decisiones, los agentes «podrían alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que nos comunicamos, coordinamos y negociamos entre nosotros, influyendo en última instancia en lo que queremos ser y llegar a ser». En este sentido, añaden, podrían persuadir racionalmente, manipular, engañar y coercer.
- Errores y accidentes. A mayor autonomía, dicen, mayor será la probabilidad de usos indebidos y accidentes derivados de instrucciones mal especificadas o interpretadas.
- Falsa humanización. Si bien el hecho de que sean cada vez más parecidos a los humanos puede resultar beneficioso, advierten de que esta humanización puede crear falsas relaciones de confianza y vinculación emocional (algo similar, por establecer un paralelismo, a lo que ocurre en la película Her).
- Manipulación y desigualdad. Algunas de las vías de manipulación que se identifican son que el agente (o bien el desarrollador de este) manipule al usuario a partir de información falsa o bien que lo haga una entidad social en aras de un supuesto interés colectivo. Por ello, añaden, «es importante que la tecnología sea ampliamente accesible y se diseñe teniendo en cuenta las necesidades de los diferentes usuarios y no usuarios».
- Evaluación. Los modelos no se evalúan en función de su impacto en un sistema más amplio, sino únicamente de su rendimiento. «Se necesitan nuevas metodologías y conjuntos de evaluación centrados, en particular, en la interacción entre humanos e IA y sus efectos», reclaman los investigadores.
- Privacidad. Debería desarrollarse una normativa sobre la gestión de la información privada, tanto en la interacción con los usuarios como entre las mismas máquinas.
- Participación. Existe un riesgo, dicen los investigadores, de que los agentes no cuenten con la participación de los usuarios y sus representantes para mejorar sus prácticas, permitir el escrutinio público y la rendición de cuentas o promover recomendaciones de regulaciones de interés general.