Estudiante de MIT crea tecnología para ver sonidos
Mariano Salcedo, un estudiante de MIT, investiga la intersección entre inteligencia artificial y visuales musicales. Su investigación se centra en automatas celulares neuronales, que combinan técnicas de aprendizaje automático con automatas celulares clásicos para generar imágenes que pueden regenerarse.
Esto permite a los usuarios crear visuales impulsadas por música de manera única, utilizando cualquier flujo de audio musical. Quiero que las visuales complementen y eleven la experiencia de escuchar, dice Salcedo. La tecnología puede ser utilizada a través de una interfaz web diseñada por Salcedo.
La investigación de Salcedo tiene el potencial de revolucionar la forma en que experimentamos la música y los visuales. Con esta tecnología, los artistas y los amantes de la música pueden crear experiencias visuales únicas y personalizadas que complementan la música.
¿Usarías esta tecnología para crear visuales musicales? ¿Qué opinas del avance en la intersección de la música y la tecnología?
¿Es real esta noticia?
Análisis de fuentes, coherencia factual y contexto en tiempo real.



