Las claves de la ley de Inteligencia Artificial que entra en vigor en UE
La norma, que se aplica a partir de este 1 de agosto, establece un marco jurídico armonizado para el desarrollo, la comercialización, la puesta en marcha y el uso de estos sistemas
El 1 de agosto, la Unión Europea pone en vigor la ley de Inteligencia Artificial (IA), la primera a nivel mundial para regular sistemas que pueden operar con mayor precisión y eficiencia que los humanos en muchos campos, impulsando la innovación y mitigando riesgos significativos que el nuevo marco común busca evitar.
Estas son las cinco claves principales del Reglamento de Inteligencia Artificial:
Objetivos
Establecer un marco jurídico armonizado en la Unión Europea para el desarrollo, comercialización, implementación y uso de sistemas de IA, una área que puede ofrecer numerosos beneficios pero también conlleva riesgos. Además, se busca impulsar la innovación y posicionar a Europa como líder del sector. Los diferentes niveles de riesgo determinarán la intensidad de la regulación.
A quién se aplica
Las normas se aplican a los proveedores de sistemas de IA que se comercialicen o se utilicen dentro de la UE, independientemente de su origen. También se aplican a los usuarios de estos sistemas, es decir, aquellos que los explotan. No se aplica a autoridades públicas de terceros países ni a organizaciones internacionales en cooperación policial o judicial con la UE, ni a sistemas de uso militar o seguridad nacional, ni a aquellos utilizados exclusivamente para investigación y desarrollo científico.
Tipos de sistemas de IA
-Prohibidos:
Algunos sistemas de IA están prohibidos porque contradicen los valores de la UE, incluyendo el derecho a la no discriminación, la protección de datos y la privacidad. Ejemplos incluyen sistemas que utilizan técnicas subliminales para distorsionar el comportamiento de una persona causando daño físico o psicológico, sistemas de categorización biométrica según creencias o características personales, y la captura indiscriminada de imágenes faciales para bases de datos de reconocimiento facial. También se prohíben sistemas de reconocimiento de emociones en el trabajo y en las escuelas, sistemas de «puntuación» de personas basados en su comportamiento o características, y la actuación policial predictiva basada únicamente en perfiles personales. No obstante, existen excepciones, como el uso de identificación biométrica «en tiempo real» bajo ciertas salvaguardias, como en la búsqueda de personas desaparecidas o la prevención de atentados terroristas, siempre con autorización judicial.
-De alto riesgo:
Los sistemas de IA de alto riesgo pueden presentar un riesgo significativo para los derechos y libertades de las personas y, por lo tanto, están sujetos a estrictas obligaciones. Ejemplos incluyen infraestructuras críticas, educación, formación profesional y empleo. Estos sistemas deben evaluar y mitigar riesgos, mantener registros, ser transparentes y estar bajo supervisión humana. En el empleo, se consideran de alto riesgo los sistemas para reclutamiento, selección, supervisión y evaluación de empleados. En educación, los sistemas que determinan el acceso a instituciones educativas o supervisan el comportamiento durante exámenes también se consideran de alto riesgo.
-Sistemas con requisitos de transparencia:
Los responsables de estos sistemas deben informar a los consumidores para no engañarles, como en el caso de chatbots o creadores de 'deepfakes', asegurándose de que los usuarios sepan que interactúan con una IA y no con una persona real.
-Sistemas IA de propósito general:
Aunque no tienen un propósito inicial específico, pueden ser entrenados o modificados para usos que podrían convertirlos en sistemas de alto riesgo, por lo que deben cumplir ciertos requisitos adaptados de los sistemas de alto riesgo.
Multas
Las multas por incumplimiento de la normativa varían según las circunstancias y el tamaño del proveedor, oscilando entre 35 millones de euros o el 7 % del volumen global de negocio de las empresas, y 7,5 millones de euros o el 1,5 % del volumen global de negocio.
Fases en la aplicación de la ley
Tras su entrada en vigor el 1 de agosto, la ley será plenamente aplicable 24 meses después, excepto las prohibiciones de prácticas que entrarán en vigor en febrero de 2025. En agosto de 2025, se aplicarán las normas para modelos de uso generalista como ChatGPT, y en agosto de 2026, la ley se aplicará de manera general. Las obligaciones para los sistemas de alto riesgo comenzarán a aplicarse en agosto de 2027.