Las estafas telefónicas están evolucionando con el avance de la IA. Gracias al desarrollo de la Inteligencia Artificial Generativa, los ciberdelincuentes pueden crear audios falsoscapaces de imitar con gran precisión la voz de una persona real.
Esta técnica, conocida como deepfake de audio, se ha convertido en una herramienta cada vez más utilizada para suplantar identidades y cometer fraudes financieros, robar cuentas o manipular a las víctimas mediante engaños telefónicos.
Según advierten especialistas de la empresa de ciberseguridad ESET, el uso de voces generadas por inteligencia artificial ha simplificado la creación de fraudes más sofisticados y difíciles de detectar.
Con apenas unos segundos de grabación de una voz real, los atacantes pueden generar un audio artificial que suena muy similar al original, lo que facilita engañar a las personas durante una llamada telefónica.
Este tipo de estafas suele comenzar con la selección de una víctima cuya voz sea relativamente fácil de obtener en internet. Los ciberdelincuentes suelen elegir a figuras públicas, directivos de empresas o incluso personas comunes que publican contenido en redes sociales o participan en entrevistas, videos o conferencias en línea.
Una vez identificada la persona, los atacantes recopilan muestras de su voz disponibles en fuentes abiertas. Grabaciones publicadas en redes sociales, podcasts, transmisiones en vivo o videos pueden proporcionar el material necesario para que herramientas de inteligencia artificial generen una imitación convincente.
Después de obtener el audio, los delincuentes utilizan programas de generación de voz para crear el deepfake. En algunos casos se emplea un guion previamente preparado, mientras que en otros la tecnología permite modificar la voz en tiempo real durante la llamada. El resultado es una conversación aparentemente auténtica en la que la víctima puede creer que está hablando con un conocido, un jefe o incluso un familiar.
Antes de realizar la llamada fraudulenta, los atacantes suelen investigar a su objetivo para aumentar la credibilidad del engaño. Este proceso puede incluir el análisis de perfiles en redes sociales, correos electrónicos filtrados o información pública disponible en internet.
También es frecuente que el fraude se refuerce con un mensaje previo, como un correo electrónico o un mensaje de texto. En este primer contacto se crea una sensación de urgencia que prepara el terreno para la llamada posterior. El objetivo suele ser convencer a la víctima de realizar una transferencia de dinero, revelar credenciales de acceso o aprobar alguna acción de seguridad como el restablecimiento de una contraseña.
La efectividad de estas estafas se basa en la combinación de tecnología y técnicas de ingeniería social. Escuchar una voz familiar, sumado a la presión por actuar rápidamente, puede llevar a muchas personas a tomar decisiones sin verificar la autenticidad del contacto.
Sin embargo, los especialistas señalan que existen algunas señales que pueden ayudar a identificar una llamada generada con inteligencia artificial. Una de las más comunes es un ritmo de voz extraño o poco natural. Aunque la tecnología ha mejorado significativamente, en algunos casos el habla puede sonar ligeramente artificial.
Otro indicio es la falta de variaciones emocionales en la voz. Los sistemas de generación de audio pueden reproducir palabras con gran precisión, pero a veces les resulta más difícil transmitir emociones de manera convincente.
Los patrones de respiración también pueden revelar la presencia de un audio generado artificialmente. Algunas grabaciones pueden incluir pausas inusuales, frases demasiado largas sin respiración o patrones respiratorios poco realistas.
En los deepfakes menos sofisticados también es posible percibir un tono ligeramente robótico o metálico. Además, el sonido ambiente puede resultar sospechoso: un silencio total o un ruido de fondo demasiado uniforme pueden indicar que la llamada no proviene de un entorno real.
El uso de esta tecnología es cada vez más accesible y convincente”, advierte Macio Micucci, investigador de ESET. Según explica el especialista, algunas herramientas incluso pueden añadir ruido de fondo, pausas o tartamudeos para hacer que la voz falsa parezca más auténtica
Por esta razón, los expertos recomiendan adoptar medidas de precaución ante cualquier solicitud urgente realizada por teléfono. Verificar la identidad de la persona por otro canal, evitar compartir información sensible durante una llamada inesperada y desconfiar de peticiones de dinero inmediatas son prácticas que pueden ayudar a reducir el riesgo de fraude.
A medida que la inteligencia artificial continúa avanzando, también lo hacen las estrategias de los ciberdelincuentes. Conocer cómo funcionan estas técnicas y aprender a identificar sus señales puede convertirse en una herramienta clave para evitar caer en estafas telefónicas cada vez más sofisticadas.
(Fuente: Infobae)





//




