{"id":39492,"date":"2023-07-27T16:35:16","date_gmt":"2023-07-27T21:35:16","guid":{"rendered":"https:\/\/einsteresante.com\/?p=39492"},"modified":"2023-07-27T16:35:16","modified_gmt":"2023-07-27T21:35:16","slug":"este-modelo-de-ia-usa-los-pensamientos-para-reproducir-musica","status":"publish","type":"post","link":"https:\/\/einsteresante.com\/index.php\/2023\/07\/27\/este-modelo-de-ia-usa-los-pensamientos-para-reproducir-musica\/","title":{"rendered":"Este modelo de IA usa los pensamientos para reproducir m\u00fasica"},"content":{"rendered":"\n<p>El legendario guitarrista de los Stones, Keith Richards, dijo una vez: &#8220;La m\u00fasica es un lenguaje que no habla en palabras concretas. Habla en emociones, y si est\u00e1 en los huesos, est\u00e1 en los huesos&#8221;.<\/p>\n\n\n\n<p>Keith conoce la m\u00fasica, pero los investigadores de Google y la Universidad de Osaka en Jap\u00f3n conocen la actividad cerebral y han informado avances en la reconstrucci\u00f3n de la m\u00fasica, no a partir de huesos sino de ondas cerebrales humanas observadas en el laboratorio. El art\u00edculo del equipo, <em>Brain2Music: Reconstrucci\u00f3n de la m\u00fasica a partir de la actividad cerebral humana<\/em>, se public\u00f3 en el servidor de preimpresi\u00f3n arXiv el 20 de julio.<\/p>\n\n\n\n<p>Se tocaron muestras de m\u00fasica que cubr\u00edan 10 g\u00e9neros, incluidos rock, m\u00fasica cl\u00e1sica, metal, hip-hop, pop y jazz, para cinco sujetos mientras los investigadores observaban su actividad cerebral. Las lecturas de resonancia magn\u00e9tica funcional (fMRI) se registraron mientras escuchaban. Las lecturas de resonancia magn\u00e9tica funcional, a diferencia de las lecturas de resonancia magn\u00e9tica, registran la actividad metab\u00f3lica a lo largo del tiempo. Luego, las lecturas se usaron para entrenar una red neuronal profunda que identificaba actividades vinculadas a varias caracter\u00edsticas de la m\u00fasica, como el g\u00e9nero, el estado de \u00e1nimo y la instrumentaci\u00f3n.<\/p>\n\n\n\n<p>Un paso intermedio trajo a MusicLM al estudio. Este modelo, dise\u00f1ado por Google, genera m\u00fasica a partir de descripciones de texto. Al igual que las IRMf, mide factores como la instrumentaci\u00f3n, el ritmo y las emociones. Un ejemplo de entrada de texto es: &#8220;Canci\u00f3n meditativa, calmante y calmante, con flautas y guitarras. La m\u00fasica es lenta, con un enfoque en crear una sensaci\u00f3n de paz y tranquilidad&#8221;.<\/p>\n\n\n\n<p>Los investigadores vincularon la base de datos MusicLM con las lecturas de fMRI, lo que permiti\u00f3 que su modelo de IA reconstruyera la m\u00fasica que escucharon los sujetos. En lugar de instrucciones de texto, la actividad cerebral proporcion\u00f3 contexto para la producci\u00f3n musical.<\/p>\n\n\n\n<p>&#8220;Nuestra evaluaci\u00f3n indica que la m\u00fasica reconstruida se parece sem\u00e1nticamente al est\u00edmulo musical original&#8221;, dijo Timo Denk de Google, uno de varios autores del art\u00edculo reciente.<\/p>\n\n\n\n<p>Llamaron acertadamente a su modelo de IA Brain2Music.<\/p>\n\n\n\n<p>&#8220;La m\u00fasica generada se asemeja a los est\u00edmulos musicales que experimentaron los sujetos humanos, con respecto a las propiedades sem\u00e1nticas como el g\u00e9nero, la instrumentaci\u00f3n y el estado de \u00e1nimo&#8221;, dijo. Adem\u00e1s, identificaron regiones del cerebro que reflejan informaci\u00f3n procedente de descripciones de m\u00fasica en texto.<\/p>\n\n\n\n<p>Los ejemplos proporcionados por el equipo demuestran extractos de m\u00fasica con un sonido notablemente similar interpretados por Brain2Music basados en las ondas cerebrales de los sujetos. Una de las canciones muestreadas fue uno de los primeros \u00e9xitos Top 10 del a\u00f1o 2000, <em>Oops!\u2026 I Did It Again<\/em>, de Britney Spears. Varios de los elementos musicales de la canci\u00f3n, como el sonido de los instrumentos y el ritmo, coincid\u00edan estrechamente, aunque la letra era ininteligible. Brain2Go se centra en la instrumentaci\u00f3n y el estilo, no en las letras, explicaron los investigadores.<\/p>\n\n\n\n<p>&#8220;Este estudio es el primero en proporcionar una interpretaci\u00f3n cuantitativa desde una perspectiva biol\u00f3gica&#8221;, dijo Denk. Pero reconoci\u00f3 que, a pesar de los avances en los modelos de texto a m\u00fasica, &#8220;sus procesos internos a\u00fan no se conocen bien&#8221;.<\/p>\n\n\n\n<p>La IA a\u00fan no est\u00e1 lista para acceder a nuestros cerebros y escribir melod\u00edas perfectamente orquestadas, pero ese d\u00eda puede no estar muy lejos. El trabajo futuro en los modelos de generaci\u00f3n de m\u00fasica traer\u00e1 mejoras a &#8220;la alineaci\u00f3n temporal entre la reconstrucci\u00f3n y el est\u00edmulo&#8221;, dijo Denk. Especul\u00f3 que se avecinan reproducciones cada vez m\u00e1s fieles de composiciones musicales &#8220;de pura imaginaci\u00f3n&#8221;.<\/p>\n\n\n\n<p>Quiz\u00e1s los futuros compositores solo necesiten imaginar el coro de una canci\u00f3n mientras una impresora conectada de forma inal\u00e1mbrica a la corteza auditiva imprime la partitura. Beethoven, que comenz\u00f3 a quedarse sordo cuando ten\u00eda 20 a\u00f1os, arruin\u00f3 los pianos golpeando las teclas para poder escuchar mejor la m\u00fasica. Le encantar\u00eda, y ahorrar\u00eda m\u00e1s de unos pocos pianos, con Brain2Music.<\/p>\n\n\n\n<p>Y Paul McCartney, autor de <em>Yesterday<\/em>, vot\u00f3 en una encuesta de la BBC en 1999 como la mejor canci\u00f3n del siglo XX, explic\u00f3 que la idea de la canci\u00f3n se le ocurri\u00f3 en un sue\u00f1o, pero tard\u00f3 un a\u00f1o y medio en completar. todas las partes que faltaban. Si a un McCartney del futuro se le ocurre un posible \u00e9xito mundial en un sue\u00f1o de medianoche, un modelo tipo Brain2Go probablemente garantizar\u00eda una representaci\u00f3n completa, r\u00e1pida y precisa que espera al autor en la mesa del desayuno.<\/p>\n\n\n\n<p>Fuente: <a href=\"https:\/\/techxplore.com\/news\/2023-07-brain2music-thoughts-music.html\">Tech Xplore<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El legendario guitarrista de los Stones, Keith Richards, dijo una vez: &#8220;La m\u00fasica es un lenguaje que no habla en palabras concretas. Habla en emociones, y si est\u00e1 en los huesos, est\u00e1 en los huesos&#8221;. Keith conoce la m\u00fasica, pero los investigadores de Google y la Universidad de Osaka en Jap\u00f3n conocen la actividad cerebral [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":["post-39492","post","type-post","status-publish","format-standard","hentry","category-tecnologia"],"_links":{"self":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/39492","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/comments?post=39492"}],"version-history":[{"count":10,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/39492\/revisions"}],"predecessor-version":[{"id":39502,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/posts\/39492\/revisions\/39502"}],"wp:attachment":[{"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/media?parent=39492"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/categories?post=39492"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/einsteresante.com\/index.php\/wp-json\/wp\/v2\/tags?post=39492"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}