Se trata de un sistema pionero en el mundo que permite discernir si un audio de voz es real o noUniversidad de Granada

Granada

Un nuevo sistema te permitirá saber si una voz es real o generada por Inteligencia Artificial

Este método pretende combatir la desinformación, a través del reconocimiento de voces de personalidades que son objetivo frecuente de desinformación

¿Sabrías distinguir si una voz es de una persona de carne y hueso o si ha sido creada de forma artificial? Los avances tecnológicos conseguidos hasta ahora han llegado hasta tal punto, que muchas veces nos es imposible diferenciar la ficción de la realidad y abona el terreno para la desconfianza general hacia todo tipo de medios.

Es por ello que un equipo de investigadores de la Universidad de Granada, pertenecientes al departamento de Lenguajes y Sistemas Informáticos, han diseñado un sistema pionero en el mundo que permite discernir si un audio de voz es real o ha sido generado mediante algoritmos de Inteligencia Artificial, un método de enorme utilidad para combatir la desinformación y las noticias falsas.

En la actualidad, los avances en el uso de redes neuronales para la síntesis de audio están permitiendo obtener voces sintéticas, que son cada vez más realistas, entendibles, expresivas y diversas. Sin embargo, la síntesis del habla también puede usarse para crear o manipular grabaciones de audio para fines maliciosos, como la suplantación de identidad en estafas telefónicas o la generación de noticias falsas.

Hasta ahora, los falsos audios en el ámbito periodístico había sido un problema menor en las redacciones de los medios de comunicación, pero estos últimos años han aumentado las falsificaciones que reciben los periodistas. Por eso, los investigadores han señalado que «es preciso que los informadores cuenten con este tipo de herramientas que puedan servirles como una nueva fuente para la verificación de noticias».

Una de las novedades que introduce este sistema creado por investigadores de la UGR es que integra modelos específicos para voces de personalidades que son objetivo frecuente de noticias falsas. En concreto está especialmente capacitada para validar las voces del Rey Felipe VI, el presidente del Gobierno, Pedro Sánchez, y la vicepresidenta del Gobierno y ministra de Trabajo y Economía Social, Yolanda Díaz.

Las estafas telefónicas difícil resolución

Este sistema también podría utilizarse para evitar las estafas telefónicas, subiendo a la plataforma creada el audio en cuestión para intentar determinar si es una voz real o no. Sin embargo, los investigadores han admitido que este es un problema de más difícil resolución, porque en ocasiones esas llamadas falsas de voz te pueden pillar en la calle con ruido ambiente, lo que hace que sea más complicado percatarse de si la voz es sintética o natural.

El objetivo principal de esta herramienta «no es generar estas voces sintéticas de manera artificial, sino entrenar a nuestra IA mediante estas voces generadas por nosotros para que así el sistema pueda identificar si una voz es falsa o no con una alta precisión», han destacado los investigadores de la UGR.