Todas las Noticias en Películas, Avances de Películas y Reseñas.

Brain2Music: el modelo de IA puede reconstruir música a partir de ondas cerebrales humanas

En un emocionante salto en la intersección de la neurociencia y la inteligencia artificial (IA), investigadores de Google y la Universidad de Osaka informaron haber logrado algo extraordinario: la capacidad de traducir la actividad del cerebro humano en música.

¿Significa esto que podríamos componer nuestros pensamientos directamente en una canción en el futuro?

Modelo de IA Brain2Music: de los pensamientos a la música

Apodado “Cerebro2Música,” Red Ciencia X reportado que este modelo de IA de vanguardia tiene el poder de convertir pensamientos y ondas cerebrales para reproducir música.

Para lograr esta hazaña, los investigadores reprodujeron muestras de música que cubrían 10 géneros diferentes, incluidos rock, clásica, metal, hip-hop, pop y jazz, para cinco sujetos mientras monitoreaban su actividad cerebral mediante lecturas de resonancia magnética funcional (fMRI).

A diferencia de las lecturas de resonancia magnética estándar que capturan imágenes estáticas, la resonancia magnética funcional registra la actividad metabólica a lo largo del tiempo, proporcionando información crucial sobre las funciones cerebrales.

Luego, estas lecturas de resonancia magnética funcional se utilizaron para entrenar una red neuronal profunda que identificó actividades cerebrales específicas asociadas con diversas características de la música, como el género, el estado de ánimo y la instrumentación.

Además, los investigadores integraron en su estudio el modelo MusicLM desarrollado por Google. MusicLM genera música basada en descripciones de texto, incorporando factores como instrumentación, ritmo y emociones.

Combinando la base de datos MusicLM con las lecturas de fMRI, el modelo de IA, llamado Brain2Music, reconstruyó la música que los sujetos habían escuchado. En lugar de utilizar instrucciones de texto, la IA aprovechó la actividad cerebral para proporcionar contexto para la producción musical.

Recomendado:  Zidoo M6, una placa mini-PC Linux con hasta 5G

Estímulo de música original

Según Timo Denk, uno de los autores del artículo e investigador de Google, su “evaluación indica que la música reconstruida se parece semánticamente al estímulo musical original”.

La música generada por IA se parecía mucho a los géneros, la instrumentación y el estado de ánimo de las muestras originales. Los investigadores también identificaron regiones cerebrales específicas que reflejaban información procedente de descripciones textuales de música.

Los ejemplos compartidos por el equipo revelaron extractos musicales sorprendentemente similares interpretados por Brain2Music basándose en las ondas cerebrales de los sujetos. En particular, la modelo reconstruyó segmentos de la exitosa canción de Britney Spears “Oops!… I Did It Again”, capturando la esencia de los instrumentos y ritmos con precisión, aunque la letra era incomprensible.

Las aplicaciones potenciales de Brain2Music son vastas e intrigantes. A medida que la tecnología de inteligencia artificial continúa avanzando, podría revolucionar la creación musical, permitiendo a los compositores simplemente imaginar melodías mientras una impresora, conectada de forma inalámbrica a la corteza auditiva, produce automáticamente partituras.

Los hallazgos del equipo de investigación fueron ppublicado en arXiv.

ⓒ 2023 . .