Dietro le quinte c’è un modello multimodale. Non lavora solo sul testo. Può partire da immagini, documenti, slide. Carichi le foto del cane nei boschi e ottieni una ballata indie. Inserisci una presentazione aziendale e diventa un jingle motivazionale. È la logica dei large language model applicata all’audio: token che non sono solo parole ma note, timbri, ritmi. Se i chatbot prevedono la parola successiva, Lyria prevede la nota giusta.
Il target non sono solo i curiosi. Sono i creator. Lyria 3 arriva anche su Dream Track di YouTube e si estende ai creator fuori dagli Stati Uniti . In un ecosistema dove ogni giorno vengono caricati milioni di Shorts, la colonna sonora è identità. Una traccia personalizzata vale più di una musica stock. È branding sonoro istantaneo.
Resta il nodo copyright. Tutte le tracce generate nell’app Gemini incorporano SynthID, la filigrana digitale invisibile di Google . Serve a identificare i contenuti creati dall’AI. Si può anche caricare un file audio e chiedere a Gemini se è stato prodotto con Google AI . È la cintura di sicurezza dell’AI musicale. Non elimina il traffico, ma mette i fari.
Google promette attenzione ai diritti e filtri per evitare imitazioni dirette di artisti esistenti . Se citi un nome famoso, il sistema lo interpreta come ispirazione ampia, non come copia. La linea, però, è sottile. E il mercato della musica, oltre 30 miliardi di dollari l’anno a livello globale, non è un garage per esperimenti.
Lyria 3 non sostituisce i musicisti. Cambia l’accesso. Come Instagram ha fatto con la fotografia. Come i chatbot con la scrittura. La vera domanda non è se l’AI scriverà una hit. È quante micro-canzoni personalizzate ascolteremo ogni giorno.










