Fundado en 1910

Flickr

El lado oscuro de la IA: ¿nos protege la ley de los delitos cometidos con ella?

Tres expertos responden a El Debate

Desnudos falsos. Voces clonadas. Fraudes. Manipulación. Sesgos.

Avances médicos. Traducciones. Mejores servicios. Ayuda al trabajo humano.

La irrupción universal y a gran escala de la inteligencia artificial generativa (IAG) es una realidad desde hace ya varios meses, pero su impacto en la sociedad, tanto para bien como para mal, no hace más que intensificarse. Apps, chatbots, páginas webs y programas de diversos tipos se abren paso en internet y en la carta de productos de nuestros teléfonos móviles ofreciendo distintos servicios de manera ‘gratuita’ (es decir, a cambio de nuestros datos). El uso que se les puede dar depende de la intención del usuario: una IAG puede crear una ilustración ultrarrealista para acompañar un libro, pero también generar una imagen que, por su gran parecido a la realidad, resulte difícil de verificar y termine provocando un grave daño a una o varias personas.

El ejemplo más claro y reciente ha tenido lugar esta semana en Almendralejo (Badajoz) y Alcalá de Henares (Madrid), donde un grupo de adolescentes ha difundido imágenes de conocidas suyas desnudas gracias a una IAG creada ad hoc para tal fin. Pero no solo eso: los fraudes económicos con voces falsas (por ejemplo, la de un nieto pidiéndole dinero a su abuelo tras haberse metido en un lío) están a la orden del día y la tecnología para cometerlos no hace más que perfeccionarse.

El asunto, ciertamente, es para asustarse. Por la posibilidad de que llegue un momento en que se vuelva imposible distinguir si algo hecho con IAG es verdadero o no. Pero también por el riesgo real de ser víctima de un delito perpetrado con esta tecnología. Por eso, cabe preguntarse: ¿estamos legalmente protegidos?

Tres expertos en la arena ética y jurídica en la que se mueve en estos momentos la inteligencia artificial han concluido para El Debate que «la mayor parte» de las infracciones están cubiertas por las leyes vigentes, si bien resulta «urgente y necesaria» una regulación más concreta –como la que desarrolla actualmente la UE– que fije límites y establezca un marco en torno a cuestiones que puedan conculcar determinados derechos de los individuos.

«La legislación existente regula plenamente los delitos que se pueden cometer mediante una IA, pues la inteligencia artificial no deja de ser el medio, un instrumento, para cometer el delito o la infracción, como podría serlo un arma, por ejemplo. Sin embargo, a veces el legislador decide establecer tipos penales específicos para una infracción o puede establecer un agravamiento de la pena, llegado el caso. Pero ahora mismo, estos hechos ya tienen acogida en el Código Penal», explica por correo Carlos Ucelay, abogado experto en Derecho Societario y Mercantilista y de Protección de Datos.

Caso distinto ocurre, y es ahí donde trata de incidir la Ley de Inteligencia Artificial de la UE, con el uso, por ejemplo, de una IA en un proceso de selección de personal, en la judicatura o en decisiones médicas.

La legislación existente regula plenamente los delitos que se pueden cometer mediante una IACarlos UcelayAbogado

Según ilustra Idoia Salazar, presidenta de OdiseIA, un observatorio social y ético de esta tecnología, la legislación tramitada está orientada hacia los llamados «sistemas de alto riesgo», es decir, «aquellos que involucran la toma de decisiones por parte de una máquina» y de lo cual, por ende, «tenemos derecho a ser informados al respecto».

«Si la máquina me ha rechazado para un puesto de trabajo, yo como afectado he de saber el porqué de esa decisión y el proceso por el cual la máquina ha llegado a ella», ilustra Salazar. Para evitar que eso ocurra, el texto de la UE establece garantías para que el empleador supervise las conclusiones de la IA y aplique el contexto necesario para tener la última palabra.

En el caso de los deepfakes (imágenes falsas como las de Almendralejo, pero también como el anuncio de Cruzcampo en 2021 con una Lola Flores ‘resucitada’), la ley europea (la primera del mundo en ese ámbito y que no será de plena aplicación al menos hasta 2026) decreta que los autores tienen la obligación de avisar del artificio mediante un rótulo so pena de multa en caso de no hacerlo. Para Salazar, que ha participado en su elaboración calidad de asesora, el texto europeo es «muy completo», aunque cree que algunos de los supuestos que recoge podrían quedarse obsoletos.

¿Qué cuestiones se antojan, en cambio, más difíciles de proteger ante un mal uso de la IA? En opinión de Jordi Ferrer, abogado especialista en Derecho Digital y codirector del Máster en Derecho Digital UB-IL3, «un mal uso probablemente afectará a la privacidad y la protección de datos personales». «Si bien tenemos un reciente marco regulatorio de la protección de datos actual a nivel europeo –continúa– afrontamos ya graves riesgos contra la privacidad de los usuarios de la IA y a las obligaciones que se deben asumir al respecto. Problemas como por ejemplo el derecho al olvido, la transparencia e información suponen una clara afrenta con esta tecnología. Los recientes problemas con imágenes de personas (o menores) entran dentro también de la protección de datos y la Agencia Española de Protección de Datos lo está analizando».

«Otro impacto importante viene con los derechos relacionados con la propiedad intelectual y el conflicto con derechos de autor, ya que tenemos marcos normativos regulatorios de la protección de la propiedad intelectual del siglo XX», añade a renglón seguido.