Logo Inklusion Sitio accesible
LogoFIA.png

¿Comunicación humanoide? Emo, el robot con IA que aprende observando a los humanos

A medida que la IA evoluciona, la línea entre lo humano y lo artificial se vuelve cada vez más difusa; ¿estamos preparados para este robot del futuro?

Emo, el robot que aprende a hablar y cantar como un humano gracias a la IA
Este robot de Columbia University sincroniza labios y voz como un humano: la IA lo hace posible|“Reuters”

Un equipo de investigadores de la Columbia University desarrolla un robot capaz de aprender a sincronizar sus labios con el habla y el canto utilizando Inteligencia Artificial (IA), marcando un avance significativo en robótica humanoide y la comunicación. Esta innovación, descrita recientemente en el laboratorio Creative Machines Lab, representa uno de los pasos más importantes hacia interacciones más naturales entre humanos y robots.

El robot, apodado Emo, no fue programado con reglas rígidas predefinidas, pero en lugar de eso, primero aprende observando su propio rostro frente a un espejo y después viendo horas de videos de personas hablando y cantando en línea. Esta metodología permite que su sistema identifique cómo los movimientos de los labios se corresponden con los sonidos del lenguaje, una tarea que históricamente ha sido muy difícil para las máquinas.

¿Cómo “aprendió” este robot a sincronizar labios?

Su innovador enfoque combina aprendizaje por observación y modelos de IA, en lugar de instrucciones manuales programadas. En la primera fase, este robot generó miles de expresiones faciales aleatorias frente a un espejo para aprender cómo sus 26 motores faciales afectan sus movimientos visibles.

Posteriormente, su sistema analizó videos de humanos hablando y cantando, para extraer patrones de movimiento de labios y asociándolos directamente con los sonidos respectivos. Esto permitió a Emo convertir señales de audio en movimientos de labios sincronizados con precisión sin necesidad de comprensión semántica del contenido.

Emo, el robot que puede hablar y cantar en varios idiomas

Los investigadores mostraron que el robot puede articular palabras en múltiples lenguajes y hasta cantar una canción llamada “Metalman”, parte de un álbum generado por IA titulado “hello world_”. Aunque no es perfecto, este robot aún presenta dificultades con ciertos sonidos complejos como los de “B” o los movimientos labiales que implican “W”, pero su avance demuestra cómo la IA puede mejorar significativamente la comunicación humano-máquina con práctica y exposición continua.

¿Qué significa este avance para la robótica?

El profesor Hod Lipson, director del Creative Machines Lab , ha afirmado que este tipo de tecnologías podría ayudar a los robots a parecer y sentirse más naturales durante conversaciones y actividades sociales, reduciendo el denominado efecto del “valle inquietante” que sucede cuando un robot se parece demasiado a un humano, pero que falla en detalles clave.

TE PUEDE INTERESAR: Gafas inteligentes que muestran subtítulos; la IA revolucionan la vida de personas sordas

EMO: Robot que aprende observando a los humanos

Además de aplicaciones en entretenimiento, educación y cuidado asistido, la investigación alrededor de Emo, también abre discusiones éticas acerca del uso responsable de robots que puedan comunicarse de forma tan convincente; ¿estamos listos para convivir con robots que hablan y cantan como humanos? Expertos coinciden en que lograr que un robot sincronice el movimiento de labios con el habla es un hito en el campo de interacción humano-robot.

Este avance plantea una pregunta crucial: ¿hasta qué punto queremos que los robots imiten características humanas profundas como la comunicación verbal y la expresión facial? A medida que la IA continúa evolucionando, la línea entre lo humano y lo artificial se vuelve cada vez más difusa. ¿Estamos preparados para ese futuro?

TE PUEDE INTERESAR: ¡El futuro de la inclusión ya llegó! La inteligencia artificial rompe otra barrera de la comunicación humana