Meta presenta nuevas herramientas de inteligencia artificial texto-a-música para competir con Google

Meta lanza herramientas IA texto-a-música para competir con Google.

La inteligencia artificial ha ido infiltrándose lentamente en la industria musical, creando canciones virales, devolviendo a la vida las voces de nuestros cantantes favoritos e incluso clasificándose para un Grammy (más o menos). Meta lanzó nuevas herramientas de inteligencia artificial que harán que el uso de la IA para generar música sea aún más fácil.

También: Los mejores chatbots de IA

El martes, Meta reveló AudioCraft, un conjunto de modelos generativos de IA que pueden crear música “de alta calidad y realista” a partir de texto, según Meta.

🎵 Hoy compartimos detalles sobre AudioCraft, una familia de modelos generativos de IA que te permite generar fácilmente audio y música de alta calidad a partir de texto.https://t.co/04XAq4rlap pic.twitter.com/JreMIBGbTF

— Meta Newsroom (@MetaNewsroom) August 2, 2023

Audiocraft consta de tres modelos generativos de IA de Meta: MusicGen, AudioGen y EnCodec. Tanto MusicGen como AudioGen generan sonido a partir de texto, uno generando música y el otro generando audio específico y efectos de sonido.

Puedes visitar MusicGen en HuggingFace y jugar con la demostración. Para el texto de entrada, puedes describir cualquier tipo de música que te gustaría escuchar de cualquier época. Por ejemplo, Meta comparte el ejemplo: “Una canción pop de los 80 con batería pesada y sintetizadores en segundo plano”.

EnCodec es un códec de audio compuesto por redes neuronales que comprimen el audio y reconstruyen la señal de entrada. Como parte del anuncio, Meta lanzó la versión más mejorada de EnCodec que permite generar música de mayor calidad con menos artefactos, según el comunicado.

También: Cómo lograr una hiperpersonalización utilizando plataformas de IA generativa

Meta también lanzó los modelos pre-entrenados de AudioGen, que brindan a los usuarios acceso para generar sonidos ambientales y efectos de sonido como el ladrido de un perro o el crujido del suelo.

Por último, Meta compartió los pesos y el código de los tres modelos de código abierto para que los investigadores y profesionales puedan aprovecharlo para entrenar otros modelos.

Meta menciona en el comunicado que AudioCraft tiene el potencial de convertirse en un nuevo tipo de instrumento estándar, al igual que los sintetizadores en su momento.

También: 4 formas de detectar la exageración de la IA generativa frente a la realidad

“Con aún más controles, creemos que MusicGen puede convertirse en un nuevo tipo de instrumento, al igual que los sintetizadores cuando aparecieron por primera vez”, dijo Meta.

Este no es el primer modelo de IA generativa de este tipo. Google lanzó MusicLM en enero, su propio modelo que puede transformar texto en música. Un reciente artículo de investigación reveló que Google también está utilizando IA para reconstruir música a partir de la actividad cerebral humana.