
Quindici secondi. È quanto basta per riscrivere la storia del cinema. Brad Pitt e Tom Cruise per la prima volta in un combattimento corpo a corpo su un tetto di una città in rovina. Una scena d’azione fotorealistica, con rumori di fondo e una discussione – provocatoria e surreale – sul caso Jeffrey Epstein (“You killed Jeffrey Epstein, you animal! He was a good man!”, dice Pitt. “He knew too much about our Russia operations. He had to die, and now you die too”, la risposta di Cruise).
A pubblicarla è stato il regista irlandese Ruairi Robinson, candidato all’Oscar nel 2002 per un cortometraggio. Il video, ovviamente, è palesamente falso: generato da un prompt di due righe inserito nella nuova AI generativa Seedance 2.0. “This was a 2 line prompt in Seedance 2”, ha chiarito Robinson su X.
Il video è decisamente dirompente per il suo fotorealismo. La scena è girata con la padronanza stilistica di un regista navigato: angolazioni dinamiche, illuminazione cinematografica, movimenti di macchina fluidi. Rhett Reese, sceneggiatore di Deadpool & Wolverine, ha ammesso di essere rimasto “scioccato” dalla qualità del video Pitt-Cruise. E il punto non è solo tecnico-stilistico: è la sensazione che la soglia tra produzione professionale e simulazione algoritmica si stia assottigliando rapidamente, con implicazioni evidenti per l’intera industria cinematografica.
Cos’è Seedance 2.0 e perché fa paura
Seedance 2.0 è il nuovo modello di generazione video di ByteDance, la società cinese proprietaria di TikTok. L’azienda lo ha descritto come un “salto sostanziale nella qualità generativa” rispetto alla versione precedente. Il modello è attualmente disponibile agli utenti cinesi attraverso l’app Jimeng AI, ma verrà presto integrato in CapCut, il popolare editor video usato dagli utenti TikTok di tutto il mondo.
Seedance 2.0 è costruito su un’architettura “dual-branch diffusion transformer”. Nei modelli precedenti si verificava spesso una “deriva” tra un’inquadratura e l’altra, con variazioni percepibili nella geometria dei volti o nell’illuminazione. La maggiore coerenza temporale di Seedance rende meno efficace anche il confronto fotogramma per fotogramma, una delle tecniche tradizionali di rilevamento dei deepfake. Il modello genera inoltre effetti sonori e audio ambientale contestualmente appropriati, non solo dialoghi.











-U26784787104bwA-1440x752@IlSole24Ore-Web.jpg?r=1170x507)