Fundado en 1910

Nadia Calviño, ministra del departamento contratante del servicio, y Pedro SánchezGTRES

El Gobierno quiere vigilar a los medios que empleen inteligencia artificial

Pese a no regir todavía una marco regulatorio europeo, el Ejecutivo quiere subcontratar un servicio que fiscalice, reporte y asesore a las entidades reincidentes

A falta de una normativa europea oficial, vigente y vinculante –la actual está todavía en fase de borrador–, el Gobierno quiere empezar a dar sus propios pasos para evitar un uso de la IA por los medios de comunicación que pueda «implicar un impacto o un riesgo para la sociedad».

Así se refleja en el Pliego de prescripciones técnicas de la contratación del servicio para el desarrollo de planes de impacto de la inteligencia artificial, elaborado por el Ministerio de Economía y que forma parte del Plan de Recuperación, Transformación y Resiliencia financiado con fondos NextGeneration de la UE.

El documento, que consta de un centenar de páginas, dedica uno de sus muchos apartados a la contratación de un servicio que realice «una vigilancia de noticias en redes sociales, medios de comunicación o cualquier otro medio necesario que permitan detectar posibles usos que puedan impactar a los ciudadanos españoles debido a un uso peligroso de sistemas IA o incumplimiento normativo relacionado con IA».

A tal efecto, especifica el pliego, el adjudicatario deberá realizar una observación «proactiva», es decir, de «seguimiento», para «detectar posibles incumplimientos o quejas de ciudadanos». «Pero también un trabajo preventivo, de detectar posibles usos de la IA que en el futuro terminen en un incumplimiento de la carta de los derechos digitales», se añade.

Con ello, el plan de actuación, al que ya se han postulado consultoras como Indra o Accenture, pasa por «recoger la máxima información posible» y, en caso de preverse «un impacto a la sociedad», contactar con «la entidad que pueda generar este impacto, para obtener más información y proponer el siguiente servicio de asesoría». Por último, establece el documento, se realizará «un estudio de evaluación de impacto y riesgos» y «un informe mensual con los riesgos detectados». En caso de tardar «en detectar algún caso de riesgo, se penalizará con un 10 % del importe total de esta tarea» por cada aviso emitido por la Secretaría General de Inteligencia Artificial y Tecnologías Habilitadoras Digitales, contratante del servicio.

Asesoría

El adjudicatario no actuará como una mera correa de transmisión de las irregularidades detectadas, sino que también ejercerá un papel 'pedagógico' para con las entidades afectadas. Eso consiste, según el pliego, en «sesiones personalizadas con esa entidad con el objetivo de ayuda, sensibilización y explicación de buenas prácticas; con el objetivo que esta situación de riesgo se corrija y que a futuro se asegure que la entidad tendrá mejores protocolos internos de actuación».

Su margen de maniobra, no obstante, es limitado, tal y como recuerda la propia SGIATHD. «Es importante recalcar que es un servicio de observación informal ya que la SGIATHD no tiene competencias formales de Autoridad sobre la IA, y además el reglamento europeo no está aprobado actualmente al estar en estado borrador y será necesario un tiempo para su aprobación».

«Este laboratorio de observación tiene por objetivo ir allanando el camino antes de que llegue la versión final del Reglamento. El adjudicatario deberá hacer un seguimiento continuo y proactivo para detectar posibles 'incumplimientos teóricos' del borrador de la normativa europea. Se especifica 'incumplimiento teórico' porque al no estar aprobada la normativa, se está haciendo una evaluación muy temprana del incumplimiento. Pero de esta forma, nos permitirá ir evaluando la viabilidad real de cumplimiento de la futura normativa/s europeas», concluye el apartado de contratación de servicio.