Fundado en 1910
Este tipo de manipulaciones por IA se conocen como 'deepfakes'

Corea del Sur es uno de los países en los que los deepfakes pornográficos están más extendidos

Corea del Sur investiga la proliferación masiva de imágenes pornográficas y no consentidas creadas con IA

El desmantelamiento de una red de canales de Telegram dedicados a la distribución de deepfakes lleva a las autoridades a sopesar un cambio en la legislación para mitigar el problema

La proliferación de aplicaciones y herramientas digitales que permiten la creación de deepfakes (montajes hechos con inteligencia artificial que imitan la voz o crean una imagen hiperrealista de la persona cuyos datos se proporcionan) de carácter pornográfico ha obligado a las autoridades de Corea del Sur a tomar cartas tras el descubrimiento de una red de Telegram dedicada a la creación de este tipo de contenido.

Son cientos las víctimas que, según The Wall Street Journal, ha dejado ya la red tras su manipulación y posterior difusión por los canales implicados, donde las imágenes 'adulteradas' habrían llegado a miles de usuarios. Entre las personas cuya imagen se ha usado sin su consentimiento se incluyen profesores, oficiales militares, estudiantes universitarios y alumnos de primaria.

La lacra de los deepfakes en Corea del Sur es de tal calibre que el país es uno de los mayores 'productores' a nivel mundial de este tipo de montajes vejatorios. El presidente Yoon Suk Yeol ha calificado los actos como «delitos claros que explotan la tecnología» y ha advertido de que «cualquiera puede ser una víctima». El Ministerio de Educación, recoge Infobae, está revisando por su parte los castigos aplicables a quien participe (sea o no menor de edad) en la creación y difusión de este tipo de imágenes, toda vez que la regulación actual se ha quedado ya obsoleta ante el imparable avance de una tecnología cambiante y vertiginosa.

La red de Telegram operaba mediante chats organizados por nombre de escuela o región, lo que facilitaba la identificación entre los usuarios. Para acceder a ellos, los participantes debían proporcionar primero imágenes de una mujer, que generalmente solían ser robadas de las cuentas de las víctimas en redes sociales. La comunicación a través de los chats se realizaba casi exclusivamente en coreano.

Según la investigación policial, la red estaba compuesta por aproximadamente 1.200 miembros activos, quienes además de compartir las imágenes, también difundían información personal de las víctimas, como números de teléfono, direcciones y números de identificación estudiantil. Los recuentos hechos hasta ahora cifran en 500 los centros educativos afectados, entre escuelas y universidades.

Perfiles

La mayoría (70 %) de las 300 personas acusadas de crear y distribuir imágenes pornográficas falsificadas desde principios de 2023 fueron adolescentes, según la Agencia Nacional de Policía de Corea. En cuanto al perfil de las víctimas, alrededor del 50 % de las personas que son sometidas a deepfakes (no solo en Corea del Sur, sino en el mundo) son cantantes y actrices, según datos de 2023 de la empresa de prevención de fraude de identidad Security Hero en base a un análisis de cerca de 100.000 vídeos distribuidos en más de 100 páginas web.

Solo este año, más de 6.000 surcoreanos han solicitado la eliminación de imágenes pornográficas falsas creadas sin su consentimiento, según datos estatales registrados hasta julio. El año pasado, la cifra total fue de 7.000.

comentarios
tracking