Los ciberdelincuentes ahora usan audios falsos para engañar a sus víctimas
Las nuevas estafas que llegan por mensajes de voz en WhatsApp
WhatsApp, una de las aplicaciones de mensajería más usadas en el mundo, se ha convertido en el blanco perfecto para los estafadores digitales.
Si bien durante años los fraudes se realizaban a través de mensajes de texto o enlaces maliciosos, ahora una nueva modalidad está ganando terreno: las estafas por mensajes de voz.
Con el uso cada vez más accesible de la inteligencia artificial (IA), los delincuentes han perfeccionado sus métodos para engañar a los usuarios.
En esta nueva variante, los mensajes de voz no solo parecen reales, sino que en muchos casos imitan la voz de alguien conocido, como un familiar, jefe o amigo cercano.
¿Cómo funcionan estas estafas por audio?
El engaño suele comenzar con un mensaje de WhatsApp aparentemente inofensivo. En lugar de texto, el usuario recibe una nota de voz.
En ella, una voz conocida o creíble solicita algo con urgencia: una transferencia de dinero, un código de verificación o el reenvío de un mensaje.
Gracias a herramientas de IA y software de clonación de voz, los estafadores pueden crear mensajes de audio falsos que suenan increíblemente auténticos.
A veces ni siquiera es necesario clonar la voz de alguien específico; basta con que la voz parezca confiable o profesional para lograr su objetivo.
En algunos casos, los delincuentes se hacen pasar por representantes de bancos, servicios técnicos o empresas de envíos, usando audios grabados que simulan ser respuestas automáticas o asistentes virtuales.
El objetivo siempre es el mismo: obtener acceso a tu información personal o inducirte a realizar pagos indebidos.
¿Por qué son tan efectivas?
Los mensajes de voz generan una mayor sensación de urgencia y cercanía. Mientras que un texto puede parecer sospechoso, una voz familiar o persuasiva puede romper las barreras de desconfianza.
Además, los usuarios no están tan acostumbrados a recibir fraudes por este medio, lo que hace que bajen la guardia.
Este tipo de estafas también aprovechan la rapidez con la que solemos responder en plataformas como WhatsApp.
En un momento de distracción o apuro, es más fácil caer en la trampa.
Señales de alerta: ¿Cómo identificar una posible estafa?
- Solicitudes urgentes de dinero o códigos: especialmente si llegan sin contexto previo o de parte de alguien que normalmente no se comunica por voz.
- Errores o pausas extrañas en el audio: algunas voces generadas por IA pueden sonar mecánicas o con una entonación poco natural.
- Números desconocidos o internacionales: aunque el mensaje parezca venir de un contacto conocido, verifica siempre el número de origen.
- Cambios en la forma de hablar: si una persona cercana suena “rara” o fuera de lo habitual, desconfía.
¿Qué hacer si recibes un mensaje sospechoso?
- No respondas de inmediato. Tómate un momento para analizar el contenido.
- Verifica por otro medio. Llama directamente al supuesto remitente desde su número habitual.
- No compartas información personal ni códigos. Ni por voz, ni por texto.
- Reporta y bloquea el número. WhatsApp permite denunciar cuentas sospechosas.
- Activa la verificación en dos pasos. Una medida simple que añade una capa extra de seguridad a tu cuenta.
A medida que la tecnología avanza, también lo hacen las estrategias de los ciberdelincuentes. Las estafas por mensajes de voz en WhatsApp son solo una muestra de cómo la inteligencia artificial puede ser usada para fines maliciosos.
Estar informado, actuar con cautela y compartir esta información puede ayudarte a ti y a otros a mantenerse un paso adelante.
*Este artículo fue elaborado por un periodista del Diario Occidente usando herramientas de inteligencia artificial.