¡Cuidado! Ahora los delincuentes clonan la voz de tus familiares. Evita ser víctima de una estafa con voz clonada mediante Inteligencia Artificial (IA), una “técnica” que cada vez es más utilizada por la delincuencia en México y en otras partes del mundo.
¿Recibiste una llamada de un familiar que te pide dinero con urgencia? ¡No caigas en la estafa! En Fuerza Informativa Azteca te explicamos cómo es que funciona este fraude, además de cómo identificarlo y qué deberás hacer si, por desgracia, ya caíste en él.
El modus operandi de la estafa en la que clonan la voz de tus familiares
Los delincuentes usan grabaciones públicas o filtradas de la voz de una persona, las obtienen de las redes sociales o de las mismas notas de voz en las aplicaciones de mensajería, para crear una réplica prácticamente idéntica a la voz de tus familiares o conocidos, utilizando la IA generativa.
Posteriormente, con esa voz hecha con Inteligencia Artificial, los delincuentes efectúan las llamadas en las que se simula ser de alguno de tus familiares y relatan emergencias falsas como un secuestro exprés, una detención, un accidente o la más común: la necesidad urgente de dinero.
Su técnica se basa en provocar miedo, además de presión emocional en las víctimas para que estas transfieran dinero de manera prácticamente inmediata y sin verificar la situación. De hecho, en algunas de estas estafas, los delincuentes utilizan números telefónicos locales o que suelen ser conocidos, esto para hacer más creíble su engaño.
¿Cómo pueden clonar voz con Inteligencia Artificial?
¿Te llama un familiar para pedir dinero? La voz se puede clonar con Inteligencia Artificial, gracias a los avances en tecnologías de síntesis de voz, como Text-To-Speech (TTS) y Deepfakes de audio, que hacen posible clonar una voz humana con tan solo unos segundos de grabación.
Herramientas de IA como ElevenLabs o similares permiten entrenar modelos con la entonación, ritmo y acento específicos de una persona. Cabe decir que si bien estas tecnologías fueron desarrolladas para usos legítimos (como doblaje o asistencia digital), han sido adoptadas por grupos delictivos cibernéticos para cometer fraudes telefónicos, que suelen ser cada vez más difíciles de detectar.

Clonan la voz de tus familiares con IA: Tips para detectar la estafa
En FIA te sugerimos que evites compartir audios personales en redes sociales, además de que debes verificar cualquier llamada urgente, contactando directamente al familiar por otros medios.
- 🔊No subas audios personales a Redes Sociales
- 🚨Verifica llamadas “urgentes”
- 🗣️Intenta contactar directo con tu familiar.
Para detectar una estafa en la que clonan la voz de tus familiares usando Inteligencia Artificial (IA), es fundamental conocer las señales y herramientas que permiten identificar audios falsos:
- Escucha atenta y análisis acústico
Las voces generadas por IA pueden presentar patrones anómalos en la frecuencia, fíjate en el tono o ritmo que es diferente a la voz humana natural. El audio puede sonar demasiado monótono, con pausas extrañas o sin naturalidad. - Análisis de metadatos y contexto
Revisar los metadatos del archivo de audio puede revelar tanto su origen, como las modificaciones. Además, analizar el contenido y contexto del mensaje ayuda a detectar incoherencias o solicitudes inusuales (pedir dinero). - Detección de artefactos digitales
A menudo, los audios clonados contienen pequeñas imperfecciones o ruidos digitales (artefactos) que no están en grabaciones auténticas. Estos se pueden detectar con software especializado que analiza el espectro sonoro. - Modelos de Machine Learning y biometría de voz
Existen sistemas de IA entrenados para identificar características únicas en la voz humana que los generadores de voz sintética no pueden replicar con precisión. - Uso de herramientas “online” de detección
Plataformas como ElevenLabs ofrecen detectores de voces clonadas que, tras subir el audio, proporcionan un porcentaje de probabilidad de que haya sido generado por IA.
¿Cómo denunciar si fui víctima de una estafa?
Si ya recibiste una llamada de este tipo y/o ya fuiste de los que caíste en este tipo de estafa, debes denunciarlo inmediatamente:
- ☎️ Marca al 089 para denuncias anónimas en México.
- 👮🏼♂️ Contacta a la Policía Cibernética de tu estado o directamente a la de la Ciudad de México: cibernetica@ssc.cdmx.gob.mx.
- 🚓 Acude al Ministerio Público con evidencia (audios, capturas de pantalla y comprobantes de transferencia).
Aunque la clonación de voz con IA es cada vez más sofisticada, combinar la escucha crítica, el análisis técnico y la verificación directa puede ayudarte a evitar caer en estas estafas basadas en voces clonadas.