
Seedance 2.0: il generatore video basato sull'IA di ByteDance di prossima generazione
Seedance 2.0 è entrata in beta il 7 febbraio 2026. Risoluzione 2K, narrazione a più inquadrature, input multimodale a 12 file e sincronizzazione audio nativa. Ecco cosa sappiamo dai tester beta e dagli utenti in accesso anticipato.
Seedance 2.0 è entrato in beta il 7 febbraio 2026, distribuendosi inizialmente in CapCut per gli utenti cinesi. La data di rilascio globale è prevista verso la metà di febbraio 2026, con disponibilità attraversoDreamina, <-- note: ensure this is a comma followed by a space?Editlye altre piattaforme. Il team Seed di ByteDance ha ottimizzato il modello per mesi oltre la scadenza originaria. Questa versione aggiunge una narrazione multi-shot nativa, output 2K e una sincronizzazione audio-video più stretta, oltre a quanto offerto da Seedance 1.0 Pro (giugno 2025) e 1.5 Pro (dicembre 2025).
Cronologia delle versioni
- Seedance 1.0 Pro, 11 giugno 2025. Text-to-video e image-to-video a 1080p/24fps, clip di 5-10 secondi. Ha occupato entrambe le prime posizioni delle classifiche T2V e I2V al lancio. Accesso gratuito su Dreamina.
- Seedance 1.5 Pro, 16 dicembre 2025. Generazione audio-visiva congiunta in un unico passaggio, con sincronizzazione labiale a livello di millisecondi su sei lingue. Controllo cinematografico della telecamera e un incremento di velocità di inferenza di 10x tramite distillazione.
- Seedance 2.0, beta il 7 febbraio 2026 (CapCut, China). La diffusione globale è prevista per metà febbraio. Originariamente prevista per la fine del 2025, posticipata per ulteriori ottimizzazioni. I tester beta descrivono l'output come notevolmente migliore rispetto a 1.5 Pro.
Il retroscena
Prima che Google abbandonasse Veo 3, il team Seedance era ancora alla ricerca di una direzione. Veo 3 gli mostrò ciò di cui il mercato aveva realmente bisogno. Hanno scartato la vecchia roadmap e ricostruito da zero.
Quella svolta ha prodotto Seedance 1.5 Pro, che era già solido. Il team ha poi avuto la versione 2.0 in uno stato pronto per la spedizione intorno a novembre-dicembre 2025, ma riteneva che la qualità potesse andare oltre. Hanno trascorso altri due o tre mesi a rifinirlo.
I tester beta con accesso anticipato dicono che la differenza tra la 1.5 Pro e la 2.0 è difficile da ignorare. Gli utenti cinesi sulla beta di CapCut hanno creato cortometraggi e annunci pubblicitari fin dal giorno del lancio. Un tester ha prodotto un cortometraggio di arti marziali in stile Shaw Brothers con audio sincronizzato e telecamera a movimento libero in un unico prompt. Un altro ha generato un'animazione di 15 secondi in stile Demon Slayer solo dal testo. Il ritardo sembra intenzionale: ByteDance sta prendendo tempo per farlo nel modo giusto.
Novità
Narrazione a più inquadrature. Un unico prompt genera numerose inquadrature coerenti tra loro, con lo stesso volto e lo stesso abbigliamento, attraverso diverse angolazioni della telecamera.
Risoluzione 2K, 30% più veloce. Superiore al 1080p. Un clip 2K viene generato in circa 60 secondi. Supporta sei rapporti di aspetto (16:9, 9:16, 4:3, 3:4, 21:9, 1:1). I clip durano da 5 a 15 secondi.
Input multimodale con un massimo di 12 file di riferimento. Mescola immagini, video e audio. Usa un'immagine per fissare lo stile visivo, un video per il movimento e lo spostamento della telecamera.
Audio generato in un unico passaggio. Un Dual-Branch Diffusion Transformer gestisce dialogo, effetti Foley e suoni ambientali insieme al video. Sincronizzazione labiale a livello di fonemi in oltre 8 lingue.
Modifica nel video. Sostituisci i personaggi, aggiungi o rimuovi oggetti, estendi i clip, espandi la tela e l'in-painting, tutto tramite istruzioni testuali.
Come si confronta
Sora 2 ha una maggiore accuratezza fisica e realismo in un'unica ripresa, ma l'audio nativo è più debole e non c'è alcun supporto narrativo a più riprese.
Veo 3.1 è l'attuale benchmark di realismo, con il punteggio più alto in una valutazione di 1.003 prompt. Ha anche audio nativo, ma costa di più ed è meno accessibile.
Kling 2.6 offre una robusta generazione audio-nativa e una funzione di trasferimento del movimento per copiare i movimenti dal video di riferimento. Limite di risoluzione inferiore.
Seedance 2.0 si distingue per la coerenza tra più scatti e per l'input di riferimento multimodale, grazie al vantaggio di velocità di ByteDance.
Dove accedere
La beta di CapCut è ora disponibile per gli utenti cinesi. La disponibilità globale è prevista a partire dalla metà di febbraio:
- Editly, integrazione in corso e sarà online non appena il modello sarà disponibile a livello globale
- Dreamina (dreamina.capcut.com"), la piattaforma principale di prima parte
- API di terze parti come Replicate e Segmind
Dreamina ha storicamente offerto l'accesso al piano gratuito per le nuove uscite Seedance.
Conclusione
La generazione narrativa multi-shot e l'input multimodale a 12 file sono le caratteristiche principali. Le reazioni dei tester beta sono positive. I benchmark indipendenti forniranno i dettagli non appena il modello sarà pubblico.