Fundado en 1910

La IA y la manipulación del voto

Del brexit al referéndum del 1-O: cómo la IA podría manipular las elecciones vascas, catalanas o europeas

La IA también puede ser una amenaza para los procesos electorales de este año que se celebran en todo el mundo con el foco puesto en las dos convocatorias españolas

Este año se calcula que habrá convocatorias electorales en más de 50 países del mundo. Entre ellos, además de España y las ya celebradas en Rusia, se encuentran India, Indonesia, Pakistán, Bangladesh, México o EE.UU. El 42 % de la población mundial tendrá derecho a voto. Europa también se citará con las urnas del 6 al 9 de junio de 2024.

En el caso español, el proceso se inició con las elecciones gallegas y seguirán las Catalanas y las del País Vasco. Estos procesos son uno de los principales objetivos de cibercriminales, hacktivistas e incluso estados que pretenden desestabilizar y manipular a los ciudadanos con desinformación a través de robocalls, spoofing, videos manipulados por IA generativa y todo tipo de deepfakes.

Brexit y referéndum

Algo así ya se pudo ver en los procesos del brexit y el referéndum ilegal del 1 de octubre de 2017 en Cataluña. En ambos casos, la filtración de datos de Facebook a Google Analytica y los hackers rusos intervinieron en alterar los resultados como ya se ha denunciado por parte de diversos organismos.

Adam Meyers, jefe de contra operaciones en la empresa de ciberseguridad CrowdStrike recuerda otros dos ejemplos sobre cómo se pueden dar la vuelta a unos comicios.

A finales de enero de 2024, antes de las primarias de New Hampshire, se anunció una investigación sobre presuntos intentos de supresión de votantes cuando los votantes recibieron deepfakes de llamadas automáticas falsas con una voz que suplantaba al presidente de los Estados Unidos y que incluía anécdotas comúnmente utilizadas por el presidente.

El uso de múltiples modelos de lenguaje de IA generativa pro-China ha sido una tendencia constante

Las elecciones en Eslovaquia se celebrarán el próximo 23 de marzo. Hace unas semanas se publicó en las redes sociales una grabación de audio en la que un ciberdelincuente se hacía pasar por la voz de Michal Simecka, líder del partido progresista de Eslovaquia, en la que se discutía cómo manipular las elecciones mediante la compra de votos.

«Ambos incidentes indican que la IA generativa probablemente desempeñará un papel importante en la creación de contenido engañoso o falso como parte de los esfuerzos de desinformación relacionados con varias elecciones globales de 2024», advierte Meyers.

China

Otro ejemplo reciente es el de los ciberdelincuentes de China Nexus, acusados de aprovechar la inteligencia artificial para manipular contenidos de vídeo de los candidatos presidenciales de Taiwán dos días antes de las elecciones del pasado mes de enero.

Diversos medios de comunicación de Taiwán informaron de que actores reconocidos chinos estaban creando y distribuyendo un gran volumen de contenido manipulado por IA en las redes sociales en los que aparecían la presidenta de Taiwán, Tsai Ing-wen, y el candidato presidencial, Lai Ching-te. El uso de modelos de lenguaje de texto a voz con IA generativa y avatares generados por IA llevó a fuentes oficiales anónimas a creer que esta operación de información fue perpetrada por esos actores. El uso de múltiples modelos de lenguaje de IA generativa pro-China ha sido una tendencia constante en 2022 y 2023.

La barrera de entrada para crear contenido deepfake continúa disminuyendo gracias al avance continuo de la IA generativaAdam MeyersJefe de contra operaciones en CrowdSrike

«En CrowdStrike rastreamos el uso de contenido creado y manipulado por parte de actores de amenazas de estados-nación, criminales y hacktivistas utilizados para engañar a individuos y grupos de personas para una variedad de propósitos», explica Meyers. «La barrera de entrada para crear contenido deepfake continúa disminuyendo gracias al avance continuo de la IA generativa. Creemos que los actores de amenazas ampliarán su uso de herramientas de inteligencia artificial generativa en operaciones criminales, de desinformación e influencia en el futuro» señala Meyers.