Ver el sonido: cómo una red celular neural transforma música en visuales
Desde su infancia entre México y Texas hasta su trabajo en MIT, Mariano Salcedo combina inteligencia artificial y música para generar visuales vivos con redes celulares neuronales. Su proyecto permite que cualquier audio musical impulse paisajes visuales regenerativos y dinámicos.
De oyente a creador: un camino entre dos mundos
Mariano Salcedo creció entre México y Texas con una pasión por la música que no siempre pudo practicar de forma tradicional. Como él mismo recuerda, las bandas escolares no son parte del sistema educativo público mexicano, y muchas familias no pueden pagar instrumentos o clases. Esa limitación lo convirtió más en un oyente que en un intérprete, hasta que la tecnología le ofreció otro camino.
En MIT, Salcedo fue parte de la cohorte inaugural del programa de maestría en Music Technology and Computation, una iniciativa conjunta entre la sección de Música y Artes Teatrales de SHASS y la Escuela de Ingeniería. El programa, dirigido por Eran Egozy, invita a artistas y profesionales a explorar nuevas aproximaciones computacionales a la música. Esa formación le permitió a Salcedo reconectar con su amor por el sonido y encauzarlo hacia la investigación en inteligencia artificial aplicada a la creación musical.
Qué son las redes celulares neuronales y por qué importan
El núcleo del trabajo de Salcedo es la investigación con neural cellular automata, o NCA. Estas son una convergencia entre los autómatas celulares clásicos, conocidos por generar patrones complejos a partir de reglas locales, y técnicas modernas de machine learning. En la práctica, una NCA puede ‘hacer crecer’ imágenes a partir de condiciones iniciales y regenerarlas después de perturbaciones, explotando dinámicas autoorganizadas.
Cuando una NCA se empareja con un estímulo sonoro, las imágenes no solo reaccionan: pueden mostrar la música en acción. Es decir, en lugar de un visualizador tradicional que sigue espectrogramas o niveles de frecuencia, una NCA produce organismos visuales que respiran, se reorganizan y responden de forma a veces impredecible al contenido musical. Esa imprevisibilidad es precisamente parte de su atractivo creativo.
Un interfaz para que cualquiera lo use
Salcedo diseñó una interfaz web que pone esta tecnología al alcance de usuarios sin experiencia en programación. Desde esa plataforma, quien lo desee puede conectar cualquier flujo de audio y ajustar la relación entre la energía musical y los parámetros del sistema NCA. El resultado son performances visuales únicas, moldeadas tanto por la música como por las reglas internas de crecimiento de la NCA.
El objetivo, según Salcedo, es que las visuales complementen y eleven la experiencia auditiva, no que la opaquen. Esa intención es importante: en contextos en los que la música se consume en vivo o en streaming, los visuales tienen el poder de transformar la percepción emocional de una pieza sin sustituirla.
De la teoría a la práctica: formación interdisciplinaria
La trayectoria de Salcedo en MIT no fue lineal. Ingresó originalmente a Mechanical Engineering por el programa QuestBridge, pero tras un encuentro con un chatbot basado en un modelo de lenguaje cambió su enfoque hacia Artificial Intelligence and Decision Making. Ese momento despertó en él tanto asombro como preocupación frente al poder y los límites de la IA, y lo motivó a formarse con la intención de contribuir de manera responsable y diversa al campo.
Mientras completaba su pregrado, Salcedo volvió a la música desde la escena electrónica: comenzó a hacer DJ en MIT y compró una estación de trabajo de audio digital para crear sus propios paisajes sonoros. Tomó cursos que unieron teoría y técnica, como Interactive Music Systems y Signal Processing, y clases de pensamiento crítico en música que le dieron marco conceptual para su práctica.
Eran Egozy, cofundador de Harmonix y mentor dentro del programa, fue una figura clave en su desarrollo. La relación entre mentor y alumno ejemplifica cómo la formación interdisciplinaria en MIT facilita que ideas de ingeniería, percepción musical y diseño interactivo converjan en proyectos aplicables.
Un programa que conecta industria y academia
El programa de Music Technology and Computation incluye una serie de conferencias con profesionales de la industria musical, artistas y tecnólogos. La beca Alex Rigopulos, financiada por el diseñador de videojuegos y músico Rigopulos —cofundador de Harmonix y ahora director de game development music en Epic Games—, es un ejemplo de cómo la industria apoya la intersección entre música y tecnología.
Para América Latina, iniciativas como esta hablan de una posibilidad relevante: si la educación formal en música es limitada en muchas regiones, las herramientas digitales y los programas interdisciplinarios pueden abrir nuevas rutas para la formación creativa y técnica. No se trata de reemplazar la educación musical tradicional, sino de ampliar el ecosistema que permite a jóvenes creadores acceder a prácticas artísticas con tecnología avanzada.
Creatividad, accesibilidad y reto técnico
El trabajo con NCA plantea consideraciones técnicas y éticas. Por un lado, la naturaleza autoorganizada de estos sistemas ofrece riqueza estética y sorpresa; por otro, requiere cuidado para que los resultados sean coherentes con la intención musical. La interfaz de Salcedo, al permitir ajustar la relación entre energía musical y parámetros de la NCA, ofrece control sin eliminar la espontaneidad.
Además, existe una dimensión de accesibilidad: al ofrecer una herramienta basada en web, el proyecto reduce barreras de entrada para artistas que no manejan programación. Sin embargo, la disponibilidad de banda ancha y dispositivos adecuados sigue siendo una limitación en varios países de la región, un aspecto que tanto investigadores como responsables de políticas culturales deberían considerar.
Reconocimientos y futuros pasos
Salcedo fue seleccionado para dar el discurso estudiantil en la ceremonia de títulos avanzados de SHASS en 2026, un reconocimiento a su trayectoria académica y su compromiso con la comunidad. Mientras avanza en su investigación, su interés por explorar los límites creativos y técnicos de la NCA continúa, y su trabajo sirve como ejemplo de lo que puede surgir cuando la música y la inteligencia artificial se encuentran en un marco académico sólido.
Conclusión: hacia nuevas estéticas audiovisuales
El proyecto de Mariano Salcedo muestra una vía concreta para transformar cómo representamos la música en imágenes: desde visualizadores que siguen reglas fijas hasta organismos visuales que se desarrollan y regeneran en respuesta al sonido. Para creadores en América Latina y el mundo, esto abre posibilidades para performances más inmersivas, instalaciones interactivas y experiencias educativas que integren código, audio y estética.
Más allá de la técnica, la historia personal de Salcedo es también un recordatorio de la importancia de la diversidad de trayectorias en la tecnología: formaciones mixtas, mentores con experiencia en industria y programas académicos que conecten artes e ingeniería pueden ampliar quién participa en la construcción de herramientas creativas y qué repertorios estéticos resultan de ese cruce.
Fuente original: MIT News AI