¿"Deepfake”? Esta es la nueva modalidad de fraude que usa Inteligencia Artificial
La falta de regulación de la Inteligencia Artificial dando como resultado una nueva modalidad de fraude conocida como “Deepfake”, pero ¿en qué consiste?
Una nueva forma de estafa ha llegado con la Inteligencia Artificial, un claro ejemplo es este video, donde la imagen de Javier Alatorre que aparece en la pantalla es real, pero la voz no.
Es un fragmento del noticiero Hechos Noche con una voz montada. A simple vista no se percibe en un celular, pero en detalle se dará cuenta que el audio no coincide con el movimiento de los labios.
Es un auténtico “Deepfake” una técnica de alteración de la realidad a través de un video utilizando Inteligencia Artificial .
¿Qué es el “Deepfake”?
Las autoridades advierten que la estafa hace uso de las posibilidades que da esta tecnología para hacer más real el engaño.
“No solamente cambian el video donde se ve a la persona hablando como si fuera cualquier otra sino que también el sonido, o sea genera una voz parecida a la original.” comenta Edmundo Daniel Silva, policía cibernético.
En este caso, elaboraron un infomercial fraudulento que circula en redes como muchos otros.
“¿Qué quiere decir esto? Que un video que nosotros estemos consiguiendo puede ser ya un video falso en el ámbito de la manipulación de la realidad ya sea por medio de efectos especiales o ya sea por medio de algunos patrones de edición” advierte Luis Ángel Hurtado, especialista en ciberseguridad.
Página fraudulenta uso imagen de Javier Alatorre para vender “medicamentos milagro”
A través de la cuenta de facebook “México Saludable” pretenden vender cápsulas para curar la diabetes. Estos estafadores se valieron de la imagen de Javier Alatorre con la manipulación errónea de los logotipos.
Además incluyen indebidamente a un médico que aborda en redes sociales el tema de la diabetes, a quién también le modifican la voz con Inteligencia Artificial.
¿Cómo funciona el “Deepfake”?
El infomercial subtitula el diálogo como distractor para que el usuario no fije su mirada en los personajes y pareciera que no, pero hay interesados en el producto.
“Como tiene gran afluencia sobre la sociedad pues sí se lo pueden llegar a creer” detalla Edmundo Daniel Silva, policía cibernético.
Esa página ya tiene una advertencia de información falsa, pero el video podría replicarse en otras cuentas.
Legisladores fueron rebasados por la tecnología de la Inteligencia Artificial
Por si fuera poco, los “Deepfake” con Inteligencia Artificial proliferan y su regulación está lejana.
La tecnología sin duda, ha rebasado la capacidad de los legisladores.