Meta svela nuovi strumenti AI di conversione testo-in-musica per competere con Google

Meta lancia nuovi strumenti AI per convertire testo in musica e competere con Google.

L’intelligenza artificiale si è lentamente infiltrata nell’industria della musica, creando canzoni virali, riportando in vita le voci dei nostri cantanti preferiti e persino qualificandosi per un Grammy (in un certo senso). Meta ha rilasciato nuovi strumenti di intelligenza artificiale che renderanno ancora più facile l’utilizzo dell’IA per generare musica.

Inoltre: I migliori chatbot di intelligenza artificiale 

Il martedì, Meta ha svelato AudioCraft, un insieme di modelli di intelligenza artificiale generativi capaci di creare musica “di alta qualità e realistica” a partire dal testo, secondo Meta.

🎵 Oggi condividiamo dettagli su AudioCraft, una famiglia di modelli di intelligenza artificiale generativi che ti permette di generare facilmente audio e musica di alta qualità a partire dal testo.https://t.co/04XAq4rlap pic.twitter.com/JreMIBGbTF

— Meta Newsroom (@MetaNewsroom) August 2, 2023

Audiocraft è composto da tre modelli di intelligenza artificiale generativi di Meta: MusicGen, AudioGen e EnCodec. Sia MusicGen che AudioGen generano suoni a partire dal testo, con il primo che genera musica e il secondo che genera audio specifico ed effetti sonori.

Puoi visitare MusicGen su HuggingFace e giocare con la demo. Per il prompt puoi descrivere qualsiasi tipo di musica tu voglia ascoltare da qualsiasi epoca. Ad esempio, Meta condivide l’esempio: “Una canzone pop anni ’80 con una batteria pesante e sintetizzatori in sottofondo”.

EnCodec è un codec audio composto da reti neurali che comprime l’audio e ricostruisce il segnale di input. Come parte dell’annuncio, Meta ha rilasciato la versione più migliorata di Encodec che consente generazioni di musica di alta qualità con meno artefatti, secondo il comunicato.

Inoltre: Come raggiungere l’iper-personalizzazione utilizzando piattaforme di intelligenza artificiale generativa

Meta ha anche rilasciato i modelli AudioGen pre-allenati, che danno agli utenti la possibilità di generare suoni ambientali ed effetti sonori come un cane che abbaia o un pavimento che scricchiola.

Infine, Meta ha condiviso i pesi e il codice per tutti e tre i modelli open-source in modo che i ricercatori e gli operatori del settore possano sfruttarli per addestrare altri modelli.

Meta afferma nel comunicato che AudioCraft ha il potenziale per diventare un nuovo tipo di strumento standard, come accadde con i sintetizzatori.

Inoltre: 4 modi per distinguere l’iperbole dell’IA generativa dalla realtà

“Con ancora più controlli, pensiamo che MusicGen possa trasformarsi in un nuovo tipo di strumento, proprio come i sintetizzatori quando sono apparsi per la prima volta,” ha detto Meta.

Questo non è il primo modello di intelligenza artificiale generativa di questo tipo. Google ha rilasciato MusicLM a gennaio, il suo stesso modello che può trasformare il testo in musica. Un recente articolo di ricerca ha rivelato che Google sta utilizzando anche l’IA per ricostruire musica a partire dall’attività cerebrale umana.