Pulso legalÁlvaro Caparrós Carretero

El precio real del entretenimiento en IA

La legislación debe ponerse las pilas, sí. Pero también nosotros. Porque no todo puede recaer en la ley

Actualizada 04:30

A veces me despierto con la inquietud de que, sin darme cuenta, he firmado un contrato con el mismísimo diablo digital. Todo empezó, como casi todo lo peligroso, con una broma: convertir tu cara en personaje de anime. Un clic aquí, una risa allá… y zas, tu imagen ya está pululando por servidores que no sabes ni en qué continente se encuentran. ¿Divertido? Claro. ¿Inocente? Ni por asomo.

Vivimos en una época en la que una foto ya no es solo una foto. Es un dato biométrico, un patrón facial, un activo valioso que puede alimentar a las inteligencias artificiales más voraces del planeta. Sí, hablo de ChatGPT y compañía. ¿Y sabías que OpenAI –la empresa detrás de esta IA que muchos usamos a diario– puede usar tus fotos si se las das voluntariamente? ¿Te lo pensaste antes de subir tu imagen para que te «animearan»?

La gran trampa está en la interfaz amable. Esa que te promete diversión, estética o creatividad. Pero detrás, lo que se mueve es un negocio de proporciones colosales que funciona gracias a algo que entregamos con una sonrisa: nuestras fotos. Porque cada vez que subes una imagen, estás contribuyendo a entrenar modelos de IA. Es decir: estás regalando trabajo gratuito a una tecnología que no para de aprender... y que te está aprendiendo a ti.

Pero, ¿no hay una ley que me proteja? Sí, está el RGPD, que vela por tus datos personales. Pero si aceptas una política de privacidad de tres folios que no has leído, ¿la ley puede ayudarte? ¿Quién lee realmente eso? ¿Y quién comprende que cuando dice «podemos usar sus datos para mejorar nuestros servicios», eso significa que tu cara puede acabar enseñando a un algoritmo a distinguir sonrisas auténticas de falsas, o a recrear tu rostro en escenarios que ni soñaste?

«Solo es un filtro, hombre, no seas paranoico» Esa es la frase favorita del siglo XXI. Pero, ¿y si mañana ese filtro sirve para que alguien cree un deepfake con tu imagen y lo difunda como si fueses tú en una situación comprometida? ¿Y si ese vídeo circula entre tus contactos? ¿Y si lo ve tu cliente? ¿Y si lo ve el juez? ¿Y si lo ve tu hijo dentro de diez años?

Porque no es exageración. Ya está ocurriendo. Las tecnologías de IA generativa son capaces de clonar voces, gestos y expresiones. Y todo lo hacen gracias a las imágenes que nosotros mismos, ingenuos digitales, les ofrecemos en bandeja.

Y ya no es en estos casos, apliquémoslo al del nuevo trend con ChatGPT, en el que la custodia la tiene una entidad privada cuyo objetivo es maximizar el beneficio y con una legislación en materia de IA aun muy prematura e ineficaz… muy tranquilizador

¿ChatGPT tiene una copia de mi rostro? La pregunta incomoda, lo sé. Pero deberíamos hacérnosla todos. OpenAI ha declarado que puede usar contenido enviado voluntariamente por los usuarios para entrenar sus modelos, salvo que se indique lo contrario. Si subiste tu foto a una herramienta de IA de imagen asociada (DALL·E, por ejemplo), ¿quién garantiza que esa imagen no acabó en su base de entrenamiento? ¿Dónde está la línea entre lo que uso como usuario y lo que cedo sin saberlo?

Y la clave es esa palabra maldita: consentimiento. ¿Fue realmente libre, informado y específico? ¿O fue un «acepto porque quiero ver cómo me veo como waifu»?

Queremos privacidad, pero la cambiamos por un poco de entretenimiento. Queremos control sobre nuestros datos, pero entregamos nuestras imágenes como si fueran stickers. ¿Nos hemos vuelto tan adictos al «contenido» que olvidamos que somos parte del contenido?

La realidad es más cruda que el filtro: estamos enseñando a las máquinas a recrearnos. ¿Y qué pasa cuando lo hacen mejor que nosotros mismos? ¿Qué pasa cuando ChatGPT pueda generar tu imagen en vídeo diciendo algo que nunca dijiste?

Aquí es donde se me quita la ironía y me invade la rabia. Porque el uso de estas herramientas por parte de adolescentes, incluso niños, sin ningún tipo de orientación o filtro, es una bomba de relojería. El uso de imágenes «divertidas» de menores ha derivado en usos criminales, especialmente en entornos donde las imágenes son manipuladas o sexualizadas. ¿De verdad vamos a seguir ignorando este problema?

No deberíamos. La legislación debe ponerse las pilas, sí. Pero también nosotros. Porque no todo puede recaer en la ley. Necesitamos una alfabetización digital profunda, seria, crítica. Saber qué implica ceder una imagen. Entender qué es entrenar una IA. Asumir que nuestros datos no son solo «cosas» sino extensiones de nuestra identidad. Abrazar los cambios tecnológicos pero con conocimiento de ellos.

Y, sobre todo, necesitamos límites éticos en las grandes tecnológicas. No puede ser que se escondan detrás de «lo aceptaste tú» cuando el consentimiento es confuso, condicionado y poco transparente. La gobernanza algorítmica no es un lujo, es una necesidad urgente.

La próxima vez que te ofrezcan convertirte en personaje anime, pregúntate: ¿quién va a ver esa foto? ¿Dónde va a acabar? ¿Quién va a aprender de ella? Porque hoy no es solo un filtro. Es el principio de algo mucho más grande.

Y aunque a veces suene exagerado, permíteme una última pregunta: ¿cuántos derechos fundamentales estás dispuesto a ceder por una imagen simpática de ti mismo con ojos gigantes?

comentarios

Más de Córdoba - Opinión

tracking