Vishing: Así nos engañan por teléfono usando IA

Las llamadas fraudulentas han dado un salto tecnológico. Te explicamos cómo los estafadores usan voces generadas por IA para hacerte caer, cómo reconocerlas y qué hacer para protegerte.

CIBERSEGURIDAD

Sergio Solano

7/8/20253 min read

Cuando la voz miente: así están engañando por teléfono con Inteligencia Artificial

La nueva era del fraude telefónico: el vishing con voces de IA

El vishing, una forma de estafa telefónica que imita al phishing pero por voz, ha existido durante años. Sin embargo, en 2025 ha evolucionado peligrosamente gracias al uso de inteligencia artificial generativa. Ya no se trata solo de llamadas extrañas de números desconocidos, sino de voces que suenan exactamente como tu jefe, tu madre o incluso tú mismo.

La tecnología de clonación de voz mediante IA ha permitido a los ciberdelincuentes crear audios hiperrealistas a partir de clips de voz muy cortos. Basta con que hayas hablado unos segundos en redes sociales o una nota de voz filtrada para que puedan replicar tu tono, acento y ritmo.

¿Cómo funciona el vishing con voz clonada por IA?

El proceso es sorprendentemente accesible y rápido. Usando herramientas de clonación de voz como ElevenLabs, Voicery o Descript, los estafadores pueden generar una voz artificial con tan solo 10-30 segundos de grabación.

A partir de ahí, preparan un guion persuasivo y realizan llamadas que suenan aterradoramente reales. Algunos ejemplos de escenarios comunes:

  • Una "llamada de emergencia" de un familiar pidiendo ayuda urgente.

  • Un falso aviso del banco solicitando confirmar movimientos sospechosos.

  • Un supuesto responsable de empresa exigiendo una transferencia inmediata.

Estas técnicas aprovechan la ingeniería social, la velocidad de respuesta emocional de la víctima y la autoridad percibida de la voz.

Casos reales y preocupantes en 2025

Ya en 2023 se reportaron casos de estafas con voces clonadas de familiares. En 2025, esta práctica ha crecido de forma alarmante. Empresas han recibido llamadas falsas de sus directivos; familias han sido manipuladas con audios generados con IA de hijos o parejas pidiendo ayuda económica.

Incluso hay ciberdelincuentes que combinan esta técnica con datos filtrados en la Dark Web, lo que les permite crear llamadas aún más creíbles, incluyendo nombres, lugares, cargos e información personal.

¿Es posible detectar una voz clonada por IA?

Aunque cada vez son más realistas, las voces sintéticas todavía pueden presentar:

  • Tiempos de respuesta ligeramente extraños.

  • Entonaciones monótonas o falta de emoción real.

  • Cortes o ruidos artificiales al final de frases.

  • Dificultad para mantener una conversación espontánea.

También están surgiendo herramientas como AI Voice Detector, Resemble Detect o Deepware Scanner, que ayudan a analizar si un audio ha sido generado artificialmente. No son perfectas, pero pueden dar una alerta importante.

¿Te interesan más temas sobre Inteligencia Artificial y Ciberseguridad?

Explora todos nuestros artículos aquí

A close up of a remote control with a sound wave
A close up of a remote control with a sound wave

El audio ya no prueba nada

Vivimos en una era en la que escuchar una voz no garantiza su autenticidad. La confianza tradicional en las llamadas de voz ha sido comprometida por el avance de la inteligencia artificial. Adaptarnos es clave, tanto en el entorno personal como profesional.

Si antes una llamada bastaba para convencerte de algo, ahora necesitas confirmación. Porque en 2025, la voz también puede mentir.

¿Cómo protegerte del vishing potenciado por IA?

Aunque las voces clonadas pueden parecer reales, hay maneras de protegerte:

  • No tomes decisiones económicas o sensibles por teléfono sin verificar. Cuelga y contacta directamente a la persona por otro medio.

  • Desconfía de la urgencia extrema. La prisa es una herramienta del estafador.

  • Configura contraseñas o palabras clave de seguridad con familiares o compañeros de trabajo para confirmar su identidad en casos sospechosos.

  • Evita publicar audios o vídeos públicos innecesarios en redes sociales.

  • Utiliza aplicaciones de identificación de llamadas y bloqueadores de spam.

Además, es crucial formar a empleados y familiares sobre esta nueva amenaza, porque el primer paso de protección es la concienciación.

El futuro de la voz y la ciberseguridad

La Inteligencia Artificial no solo la usan los estafadores. También están en marcha soluciones que permiten detectar patrones de fraude mediante IA, entrenadas para analizar llamadas sospechosas en tiempo real.

Los sistemas biométricos de voz también se están adaptando para distinguir entre una voz humana y una clonada, aunque aún queda camino por recorrer. La regulación también juega un papel clave: países como EE.UU. ya están empezando a legislar el uso de voces sintéticas.

El auge de los servicios de voz como nuevo vector de ataque

Plataformas como WhatsApp, Telegram o incluso asistentes virtuales como Alexa o Siri se han convertido en nuevas puertas de entrada para estas estafas. Los atacantes ya no dependen solo de llamadas telefónicas tradicionales: ahora también pueden enviar notas de voz falsas por mensajería instantánea o interactuar con servicios de atención al cliente automatizados, haciéndose pasar por usuarios legítimos. Esta expansión del vishing hacia entornos digitales más cotidianos demuestra que la seguridad de la voz debe empezar a formar parte integral de nuestras estrategias de ciberseguridad personal y corporativa.