Este modelo de IA usa los pensamientos para reproducir música

Tecnología

El legendario guitarrista de los Stones, Keith Richards, dijo una vez: “La música es un lenguaje que no habla en palabras concretas. Habla en emociones, y si está en los huesos, está en los huesos”.

Keith conoce la música, pero los investigadores de Google y la Universidad de Osaka en Japón conocen la actividad cerebral y han informado avances en la reconstrucción de la música, no a partir de huesos sino de ondas cerebrales humanas observadas en el laboratorio. El artículo del equipo, Brain2Music: Reconstrucción de la música a partir de la actividad cerebral humana, se publicó en el servidor de preimpresión arXiv el 20 de julio.

Se tocaron muestras de música que cubrían 10 géneros, incluidos rock, música clásica, metal, hip-hop, pop y jazz, para cinco sujetos mientras los investigadores observaban su actividad cerebral. Las lecturas de resonancia magnética funcional (fMRI) se registraron mientras escuchaban. Las lecturas de resonancia magnética funcional, a diferencia de las lecturas de resonancia magnética, registran la actividad metabólica a lo largo del tiempo. Luego, las lecturas se usaron para entrenar una red neuronal profunda que identificaba actividades vinculadas a varias características de la música, como el género, el estado de ánimo y la instrumentación.

Un paso intermedio trajo a MusicLM al estudio. Este modelo, diseñado por Google, genera música a partir de descripciones de texto. Al igual que las IRMf, mide factores como la instrumentación, el ritmo y las emociones. Un ejemplo de entrada de texto es: “Canción meditativa, calmante y calmante, con flautas y guitarras. La música es lenta, con un enfoque en crear una sensación de paz y tranquilidad”.

Los investigadores vincularon la base de datos MusicLM con las lecturas de fMRI, lo que permitió que su modelo de IA reconstruyera la música que escucharon los sujetos. En lugar de instrucciones de texto, la actividad cerebral proporcionó contexto para la producción musical.

“Nuestra evaluación indica que la música reconstruida se parece semánticamente al estímulo musical original”, dijo Timo Denk de Google, uno de varios autores del artículo reciente.

Llamaron acertadamente a su modelo de IA Brain2Music.

“La música generada se asemeja a los estímulos musicales que experimentaron los sujetos humanos, con respecto a las propiedades semánticas como el género, la instrumentación y el estado de ánimo”, dijo. Además, identificaron regiones del cerebro que reflejan información procedente de descripciones de música en texto.

Los ejemplos proporcionados por el equipo demuestran extractos de música con un sonido notablemente similar interpretados por Brain2Music basados en las ondas cerebrales de los sujetos. Una de las canciones muestreadas fue uno de los primeros éxitos Top 10 del año 2000, Oops!… I Did It Again, de Britney Spears. Varios de los elementos musicales de la canción, como el sonido de los instrumentos y el ritmo, coincidían estrechamente, aunque la letra era ininteligible. Brain2Go se centra en la instrumentación y el estilo, no en las letras, explicaron los investigadores.

“Este estudio es el primero en proporcionar una interpretación cuantitativa desde una perspectiva biológica”, dijo Denk. Pero reconoció que, a pesar de los avances en los modelos de texto a música, “sus procesos internos aún no se conocen bien”.

La IA aún no está lista para acceder a nuestros cerebros y escribir melodías perfectamente orquestadas, pero ese día puede no estar muy lejos. El trabajo futuro en los modelos de generación de música traerá mejoras a “la alineación temporal entre la reconstrucción y el estímulo”, dijo Denk. Especuló que se avecinan reproducciones cada vez más fieles de composiciones musicales “de pura imaginación”.

Quizás los futuros compositores solo necesiten imaginar el coro de una canción mientras una impresora conectada de forma inalámbrica a la corteza auditiva imprime la partitura. Beethoven, que comenzó a quedarse sordo cuando tenía 20 años, arruinó los pianos golpeando las teclas para poder escuchar mejor la música. Le encantaría, y ahorraría más de unos pocos pianos, con Brain2Music.

Y Paul McCartney, autor de Yesterday, votó en una encuesta de la BBC en 1999 como la mejor canción del siglo XX, explicó que la idea de la canción se le ocurrió en un sueño, pero tardó un año y medio en completar. todas las partes que faltaban. Si a un McCartney del futuro se le ocurre un posible éxito mundial en un sueño de medianoche, un modelo tipo Brain2Go probablemente garantizaría una representación completa, rápida y precisa que espera al autor en la mesa del desayuno.

Fuente: Tech Xplore.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *