Fundado en 1910

Fragmento de uno de los vídeos generados por la IA SoraOpenAI

Llegan las IA para que todos convirtamos en vídeos nuestros pensamientos: ¿cómo transformarán el mundo?

La creación de la herramienta Sora evidencia de nuevo las crecientes capacidades de la inteligencia artificial y la necesidad de regularla debidamente

La era de la inteligencia artificial continúa esbozando, y definiendo, el devenir de los próximos años, y posiblemente décadas.

A los chatbots conversacionales como ChatGPT o Gemini, generadores de imágenes como Dall-E o Midjourney o de herramientas de clonación y traducción de voz, como DeepDub, se les suma ahora un nuevo ‘juguete’ que, como el resto, prometen transformar el mundo tal y como lo conocemos.

Se trata de Sora, una herramienta que ya no solo ‘fabrica’ imágenes con una simple orden –por surrealista que esta sea–, sino, directamente vídeos de tipo hiperrealista. Aunque todavía sigue en desarrollo y su creadora, la tecnológica OpenAI (artífice también de ChatGPT), ha avanzado que presenta ciertos fallos de lógica y comprensión que aún deben ser pulidos, ya es capaz de producir clips –de hasta un minuto– con toda clase de contenido: una carrera ciclista de animales marinos, una abuela italiana haciendo una videoreceta de ñoquis, dos golden retrievers grabando un podcast en una montaña, una carrera de drones futuristas en Marte, una ardilla vestida de exploradora volando a lomos de un pato-dragón… Por ahora la empresa ha mostrado solo un pequeño muestrario de su potencial, pero las posibilidades se antojan infinitas.

Una vez más, y a la espera de tener acceso completo a la herramienta, el invento suscita asombro, pero también vértigo. ¿Cómo puede usarse en un sentido positivo o, por el contrario, para hacer el mal y sembrar el caos?

«Sora puede ser muy beneficiosa para el márketing o el mundo audiovisual, y podría incentivar también el comercio electrónico –señala a El Debate Idioia Salazar, presidenta de OdiseIA, obsevatorio de impacto social y ético de la IA–. Aunque, de manera inversamente proporcional, veo grandes riesgos asociados con la usurpación de identidad, entre otras cuestiones, o uso indebido de imágenes para la producción de contenidos de video». Un análisis parecido hace Sara Degli-Esposti, investigadora del CSIC y autora de La ética de la inteligencia artificial, que resalta el «fotorrealismo y la capacidad de producir clips más largos» respecto a otras soluciones similares ya disponibles.

Con una bomba de relojería de estas proporciones no resulta por tanto difícil intuir el impacto que puede implicar, así como la consiguiente necesidad de evitar por todos los medios que se haga un mal uso de ella. Es, una vez más, el último recordatorio de que ese es el gran desafío al que se enfrentan las IA al alcance de cualquier persona.

Tanto Salazar como Degli-Esposti son optimistas y tranquilizadoras al respecto: «Su acceso estará regulado en el AI act [la ley de Inteligencia Artificial aprobada por la UE en diciembre y que entrará en vigor en un plazo de dos años]. Tras la entrada en vigor habrá obligaciones de transparencia. Todos los vídeos generados por Sora deberán rotularse diciendo que han sido generados de manera automática», dice la primera. ¿Evitará esto, sin embargo, que proliferen los vídeos maliciosos y que se puedan burlar las «medidas de seguridad» que OpenAI promete adoptar «antes de que esta investigación esté disponible en cualquiera de nuestros productos»? La respuesta parece difícil de adivinar.

Sora puede ser beneficiosa para el márketing o el mundo audiovisual, pero también tiene riesgos asociadosIdoia SalazarPresidenta de OdiseIA

«Solemos mencionar la regulación como una fácil solución cuando en la realidad no hablamos de hacer cumplir las leyes que ya tenemos. Es mucho más inmediato escribir una ley de cero que analizar la eficacia del conjunto de normas que ya existen sobre un tema. En el caso de Sora, el debate es el mismo de la demanda de The New York Times, que ha sido el primer gran medio de comunicación estadounidense en demandar a OpenAI y Microsoft por cuestiones de derechos de autor relacionadas con sus obras escritas. En el caso de Sora es predecible que los abogados de Paramount estén ya estudiando cómo demandar a OpenAI por el uso de sus películas como datos de entrenamiento de sus modelos», vaticina, por su parte, Degli-Esposti.

¿Harán las desarrolladoras todo lo posible para garantizar un uso correcto de estas herramientas? «Las grandes empresas quizá sí –aventura la presidenta de OdiseIA–, porque ellas están muy expuestas a la opinión pública y se ven obligadas a ello. Pero cualquiera podrá usar esta herramienta para fines no tan lícitos». La investigadora del CSIC responde a la misma pregunta a su manera, apuntando al rol que también jugaremos nosotros como sociedad: «Las compañías van a hacer todo lo posible para que sus productos se usen, porque al usarlos los aceptaremos o los cambiaremos para seguir usándolos. El uso correcto de una tecnología lo determina el usuario, más que él que crea la tecnología, y las dinámicas de competencia de mercado son las únicas que de verdad mejoran las herramientas. No hay tecnología que se haya adoptado porque lo dijera una ley o un juez. Lo que cambia el mensaje y el enfoque de la tecnología son los escándalos y el rechazo del consumidor».