Tu voz puede ser hackeada: así clonan llamadas para robar claves y engañar a tu familia

“Mamá, estoy en problemas. Necesito que me mandes plata ya.”
Pero no era su hijo. Era una inteligencia artificial imitando su voz con escalofriante precisión.
La nueva modalidad de estafa por clonación de voz con IA está sembrando terror. Lo que antes era ciencia ficción, hoy es una amenaza real que puede vaciar tus cuentas o romperte el corazón.
¿Qué es la clonación de voz con IA?
Se trata de una técnica que utiliza modelos de inteligencia artificial entrenados para imitar voces humanas. Solo se necesita un audio de unos segundos —extraído de un video en redes, un mensaje de WhatsApp o incluso una nota de voz pública— para crear un clon perfecto de tu timbre, entonación y ritmo al hablar.
Herramientas como ElevenLabs, HeyGen o iSpeech han democratizado este tipo de software.
Lo que antes requería horas de grabación y potencia de cómputo, ahora se consigue con un par de clics.
“Una vez que obtienen tu voz, pueden decir lo que quieran como si fueras vos”, alerta la experta en ciberseguridad Rachel Tobac, en declaraciones para Wired.

Casos reales que parecen sacados de Black Mirror
En Canadá, una familia recibió una llamada de su hija supuestamente secuestrada. La voz, idéntica a la real, lloraba y pedía rescate. Era una estafa.
En EE.UU., un ejecutivo transfirió más de 200 mil dólares luego de recibir un falso llamado de su jefe… también generado por IA.
En México, una mujer recibió un audio falso de su sobrino pidiéndole ayuda con tono desesperado.
La estafa apela al vínculo emocional. Y la IA lo sabe. Con unos segundos de tu voz, pueden engañar a tus padres, pareja o hijos.
Comparativa: voz real vs. voz clonada con IA
Característica | Voz real | Voz clonada (IA) |
---|---|---|
Tono emocional | Natural, con microvariaciones | Simulado, pero convincente |
Tiempo de respuesta | Variable | Instantáneo |
Contexto emocional | Con matices humanos | Puede fallar en ironías o sarcasmos |
Detección por humanos | Difícil a primera escucha | Muy difícil sin herramientas |
Cómo protegerte de la clonación de voz por IA
Aunque la tecnología avanza rápido, también existen formas sencillas de prevenir este tipo de fraudes. Tomá nota:
- Usá una palabra clave de seguridad entre tus seres cercanos (algo que nadie más sepa).
- Evitá subir audios innecesarios a redes sociales públicas.
- Verificá siempre con videollamada si recibís pedidos urgentes.
- Configurá límites de seguridad en tus apps bancarias.
- Mantené actualizados tus dispositivos para bloquear accesos no deseados.
¿Sabías que…?
- Algunas IA pueden clonar tu voz con solo 3 segundos de audio.
- En 2025, más del 35% de los fraudes digitales incluyeron alguna forma de deepfake de voz o imagen.
- Ya existen apps que detectan si una voz es real… o generada artificialmente.
¿Qué dice la región sobre estas estafas?

En países como Argentina, Colombia o Perú, las autoridades ya emitieron alertas por estafas con voces falsas generadas por IA.
Aunque aún no existe una legislación específica que las regule, el vacío legal dificulta su persecución, y los ciberdelincuentes se aprovechan de eso.
IA, emociones y engaños: una combinación peligrosa
Este tipo de tecnología también está siendo usada para manipular emociones en redes, como contamos en esta nota sobre la IA que lee tu cara para saber cómo te sentís.
Y si te preocupa tu privacidad en general, quizás también te interese esta investigación sobre cómo tu cámara podría estar grabando sin que lo sepas.
🔁 Si esta nota te puso la piel de gallina, hacé algo más que asustarte: compartila.
Tal vez evités que alguien caiga en una estafa que le rompa el corazón o le vacíe la cuenta.
Deja una respuesta