Fraudes
Detectan una nueva estafa telefónica que simula las voces familiares y amigos con inteligencia artificial
Estos grupos recopilan información personal y profesional de cada una de las personas para crear audios falsos convincentes
La inteligencia artificial (IA) no para de extenderse y ampliarse por todo el mundo. De hecho, el ámbito del cibercrimen ya lo sabe y no ha dudado en aprovecharse de ello. En general, utilizan la IA para desarrollar métodos de ataque más sofisticados, crear malware avanzado y llevar a cabo estafas más creíbles, lo que incrementa los riesgos y desafíos para los ciudadanos.
En este sentido, los Mossos d'Esquadra han alertado de una nueva forma de estafa telefónica conocida como 'deep fake' de audio. En este tipo de estafa, diversas organizaciones criminales llaman por teléfono a las víctimas y simulan las voces de sus familiares, amigos o personas de su entorno más cercano.
«Tenemos denuncias de trabajadores que reciben un audio en el que identifican como interlocutor a un compañero de trabajo, que les pide dinero», ha explicado el subinspector José Ángel Merino, jefe del área central de Delitos Económicos de la División de Investigación Criminal (DIC). Además, también han recibido varias denuncias por esta modalidad de estafa, lo que evidencia la creciente sofisticación de los ciberdelincuentes.
Su principal objetivo, las empresas
Ante esta creciente preocupación, los agentes se han puesto manos a la obra para identificar y averiguar qué grupos organizados se podrían encontrar detrás de esta estafa. En primera instancia, se cree que podría tratarse de diferentes bandas especializadas, que no siempre operan desde España, y que antes de iniciar la estafa han realizado un trabajo de investigación detallado sobre sus víctimas.
Al mismo tiempo, estos grupos recopilan información personal y profesional de cada una de las personas para crear audios falsos convincentes, incrementando así la efectividad de sus fraudes. En algunos casos detectados, intentan camuflar este posible fraude bajo la apariencia de una transacción comercial legítima, lo cual confunde a las víctimas y facilita la ejecución de la estafa.
El uso de la IA para simular voces de familiares y amigos representa una sofisticación de una modalidad de estafa más extendida conocida como vishing. En esta técnica, los estafadores llaman a la víctima haciéndose pasar por un operador externo, como un empleado bancario o de servicio al cliente, con el fin de ganarse su confianza.
Finalmente, estos estafadores siempre tienen dos objetivos: la captación de datos personales o la obtención de credenciales de acceso a datos bancarios para realizar transacciones fraudulentas. Por ello, es importante tener cuidado y no proporcionar esta información sin antes verificar quién está al otro lado de la llamada.