Todas las Noticias en Películas, Avances de Películas y Reseñas.

El sonido generado por IA de Google ‘MusicLM’ crea sonido basado en la actividad cerebral

Es posible que Google haya tenido dificultades para competir con ChatGPT de OpenAI ya que el lanzamiento de su Bard AI no salió según lo planeado. Sin embargo, la compañía no ha abandonado el campo de la inteligencia artificial y está incursionando en diferentes campos como la generación de sonido a partir de la actividad cerebral.

Google puede utilizar IA para crear música a partir de la actividad cerebral con su nueva herramienta MusicML

Según el relato de ZDNet, es importante aclarar que Google no utilizará IA para crear música, sino que lo hará a partir de un enfoque de texto. Esto llega con el lanzamiento de su nueva herramienta, MusicML.

Google está aumentando sus esfuerzos en lo que respecta al uso de IA para leer el cerebro del usuario y producir sonido basado en la actividad cerebral del usuario. En un nuevo trabajo de investigación con el título Cerebro2MúsicaSegún se informa, Google utilizó IA para reconstruir música proveniente de la actividad del cerebro.

La herramienta de inteligencia artificial analiza las imágenes de resonancia magnética funcional de un usuario para crear nueva música

La empresa pudo hacerlo analizando datos de imágenes por resonancia magnética funcional (fMRI). Se observó que se estudiaron los datos de resonancia magnética funcional de cinco sujetos de prueba, ya que todos escuchaban lo mismo.

Los participantes escucharon clips musicales de 15 segundos de diferentes géneros como hip-hop, blues, country, clásica, metal, country, jazz, pop, rock y reggae. Luego, los datos se utilizaron para entrenar la red neuronal profunda de Google.

Deep Neural Network aprende más sobre la relación entre la música y la actividad cerebral

Luego, la red neuronal profunda intentó aprender más sobre la relación entre los elementos musicales y los patrones en la actividad cerebral. Los investigadores querían aprender la relación entre ritmo y emoción.

Recomendado:  Apple aumentará los anuncios de iPhone; Mapas y otras aplicaciones, software para tener más publicidad

Una vez finalizado el entrenamiento, se informó que el modelo sería capaz de reconstruir música procedente de una resonancia magnética funcional. Esto se haría utilizando MusicLM, que se sabe que genera música a partir del texto.

MusicLM se utiliza para generar música similar a los estímulos musicales de entrada originales

Dado que el objetivo principal de MusicLM es utilizar texto para generar música, luego se condicionó para generar música similar a los estímulos musicales de entrada originales, pero en un nivel semántico específico. Tras la prueba, la música generada se acerca a los estímulos musicales que el participante escuchó inicialmente.

La música se parecía al género, el estado de ánimo, la instrumentación y más. El pagina de investigacion de google También reveló más sobre el proyecto, permitiendo a los usuarios escuchar otros clips de los estímulos musicales originales para comparar.

Reestructuraciones generadas por MusicLM similares al clip de sonido original utilizado

Se compararían con las reestructuraciones generadas por MusicLM, mostrando resultados interesantes. Un ejemplo de esto fue cómo un clip de sonido de 15 segundos de “Hit Me Baby One More Time” de Britney Spears y las tres reconstrucciones generadas por la IA mostraron un resultado pop y alegre, cercano al original.

Según se informa, el audio no se parecía a la música original porque el estudio se centró más en los diferentes elementos musicales que en su componente lírico.

â“’ 2023 . .

Tabla de Contenido