Clonación de voz: ¿Cómo no caer en el último fraude con IA?

Los criminales se están aprovechando de la tecnología al usar la clonación de voz con IA; consulta algunos consejos para evitar caer en un fraude.

Notas
Mundo
Escrito por: César Contreras
fraudes-voz-deepfake-ia
Los criminales emplean la Inteligencia Artificial para replicar voces. | Pexels.

“Obviamente era el sonido de su voz”, narró Jennifer DeStefano en 2023 después de que recibió una llamada de un supuesto secuestrador que tenía a su hija Brianna, de 15 años de edad en Estados Unidos. Lo que ella no sabía en ese momento es que la voz de la adolescente presuntamente había sido clonada con Inteligencia Artificial (IA).

La joven estadounidense estaba entrenando para una competencia de esquí fuera de casa, cuando su mamá recibió una llamada telefónica de un número desconocido.

Deepfakes... ¿un enemigo silencioso a nivel mundial?

Así intentaron robar 50 mil dólares con una voz clonada por IA


“¡Mamá! ¡Lo arruiné!”, mencionó la supuesta voz de Brianna del otro lado del teléfono, relató Jennifer a la cadena estadounidense CNN. En un inicio, el secuestrado le pidió un millón de dólares, pero tras pasar los minutos, bajó la cifra a 50 mil dólares.

Después de llamadas al 911 y de contactar a Brianna, quien estaba sana y salva, la mujer llego a la conclusión de que se trataba de una voz clonada. Esta no es la primera vez que ocurre un caso así.

La Comisión Federal de Comercio (FTC, por sus siglas en inglés) de Estados Unidos advirtió de estas tácticas de IA usadas por criminales. La firma de ciberseguridad McAfee aseveró que los delincuentes emplean publicaciones en redes sociales para falsificar las voces de las personas.

“En un caso, bastaron tres segundos de audio para producir un clon con un 85% de coincidencia de voz con el original”, aseveró la firma de seguridad tecnológica.

En una encuesta realizada por la misma empresa a 7 mil personas en todo el mundo en 2023, señala que al menos una cuarta parte había sufrido un fraude con clonación de voz con IA o sabía de alguien que lo había pasado.

El consejo clave para evitar fraudes con clonación de voz por IA

Henry Farid, profesor de ciencias de la computación en la Universidad de California en Berkeley dio un consejo para evitar caer en estos fraudes de clonación de voz con IA, el cual trata de establecer una “palabra clave” entre familiares y amigos en forma similar a como sucede con las contraseñas de correo electrónico y otros servicios.

“Me gusta la idea de una palabra clave, porque es simple y, asumiendo que quienes llaman tiene la claridad mental para acordarse de preguntar, no es fácil de averiguar”, afirmó a la revista Scientific American.

El especialista pidió practicar esta palabra clave entre las personas, ya que puede ser fácil de olvidar si no se usa con frecuencia.

La FTC de Estados Unidos también da otras recomendaciones, como

  • Llamar a la persona que supuestamente llamó y verificar la historia.
  • Contactar a la persona a un número teléfono que sepamos que es de ella, de algún amigo o familiar.
¡No te pierdas nuestro contenido, sigue a Fuerza Informativa Azteca en Google News!
Notas
Mundo
Escrito por: César Contreras

Otras Noticias

×