
Seedance 2.0: Der KI-Video-Generator der nächsten Generation von ByteDance
Seedance 2.0 ging am 7. Februar 2026 in die Beta. 2K-Auflösung, Multi-Shot-Erzählung, eine multimodale Eingabe aus 12 Dateien und native Audio-Synchronisation. Hier ist, was wir von Beta-Testern und Early-Access-Nutzern wissen.
Seedance 2.0 trat am 7. Februar 2026 in die Betaphase ein und wird zunächst in CapCut für chinesische Nutzer ausgerollt. Das weltweite Veröffentlichungsdatum wird voraussichtlich Mitte Februar 2026 liegen, mit Verfügbarkeit durchDreamina,Editlyund andere Plattformen. Das Seed-Team von ByteDance hat das Modell über Monate hinaus optimiert, jenseits des ursprünglichen Zeitplans. Diese Version fügt Native Multi-Shot-Storytelling, 2K-Ausgabe und eine engere Audio-Video-Synchronisation hinzu, zusätzlich zu dem, was Seedance 1.0 Pro (Juni 2025) und 1.5 Pro (Dezember 2025) geliefert haben.
Versionsverlauf
- Seedance 1.0 Pro, 11. Juni 2025. Text-zu-Video und Bild-zu-Video bei 1080p/24fps, 5-10-Sekunden-Clips. An der Spitze beider T2V- und I2V-Ranglisten beim Start. Kostenloser Zugang zu Dreamina.
- Seedance 1.5 Pro, 16. Dezember 2025. Gemeinsame Audio-Video-Generierung in einem Durchgang hinzugefügt, mit Lippensynchronisation auf Millisekundenebene über sechs Sprachen hinweg. Cinematische Kamerasteuerung und zehnfache Inferenzbeschleunigung durch Distillation.
- Seedance 2.0, Beta am 7. Februar 2026 (CapCut, China). Globaler Rollout voraussichtlich Mitte Februar. Ursprünglich für Ende 2025 geplant, verzögert, um weitere Optimierung vorzunehmen. Beta-Tester beschreiben die Ausgabe als deutlich besser als 1.5 Pro.
Die Hintergrundgeschichte
Bevor Google Veo 3 auf den Markt brachte, suchte das Seedance-Team noch nach einer Richtung. Veo 3 zeigte ihnen, was der Markt tatsächlich brauchte. Sie warfen die alte Roadmap über Bord und bauten von Grund auf neu.
Dieser Wendepunkt brachte Seedance 1.5 Pro hervor, das bereits solide war. Das Team hatte dann 2.0 in einem versandfertigen Zustand um November-Dezember 2025, war jedoch der Ansicht, dass die Qualität noch weiter verbessert werden könnte. Sie verbrachten weitere zwei bis drei Monate damit, es zu polieren.
Beta-Tester mit Frühzugang sagen, der Abstand zwischen 1.5 Pro und 2.0 sei schwer zu übersehen. Chinesische Nutzer in der CapCut-Beta erstellen seit dem Starttag Kurzfilme und Werbespots. Ein Tester produzierte einen Shaw Brothers-Stil-Kampfkunst-Kurzfilm mit synchronisiertem Audio und einer frei beweglichen Kamera in einer einzigen Eingabe. Ein weiterer erzeugte eine 15-Sekunden-Demon-Slayer-Stil-Animation rein aus Text. Die Verzögerung wirkt absichtlich: ByteDance nimmt sich Zeit, um dies richtig hinzubekommen.
Was gibt es Neues?
Erzählung mit mehreren Aufnahmen. Eine einzige Eingabe erzeugt mehrere kohärente Aufnahmen mit konsistenten Charakteren und behält dabei über alle Kamerawinkel hinweg dasselbe Gesicht und dieselbe Kleidung.
2K-Auflösung, 30% schneller. Im Vergleich zu 1080p. Ein 2K-Clip wird in etwa 60 Sekunden erzeugt. Unterstützt sechs Seitenverhältnisse (16:9, 9:16, 4:3, 3:4, 21:9, 1:1). Clips dauern 5–15 Sekunden.
Multimodale Eingabe mit bis zu 12 Referenzdateien. Mischen Sie Bilder, Videos und Audio. Verwenden Sie ein Bild, um den visuellen Stil festzulegen, ein Video für Bewegung und Kamerabewegung.
Audio wird in einem Durchgang erzeugt. Ein Dual-Branch-Diffusion-Transformer verarbeitet Dialoge, Foley-Geräusche und Umgebungsgeräusche zusammen mit dem Video. Phonemgenaue Lippensynchronisation in über acht Sprachen.
In-Video-Bearbeitung. Charaktere austauschen, Objekte hinzufügen oder entfernen, Clips verlängern, Leinwandvergrößerung und In-Painting – alles durch Textanweisungen.
Wie es sich im Vergleich schlägt
Sora 2 bietet eine bessere Physikgenauigkeit und Realismus bei Einzelaufnahmen, bietet jedoch schlechteren Originalton und keine Multi-Shot-Erzählunterstützung.
Veo 3.1 ist der aktuelle Realismus-Benchmark und erzielt die höchste Punktzahl in einer 1.003-Prompt-Auswertung. Es bietet außerdem natives Audio, ist jedoch teurer und weniger zugänglich.
Kling 2.6 bietet eine starke audio-native Generierung und eine Bewegungstransfer-Funktion zum Kopieren von Bewegungen aus einem Referenzvideo. Begrenzung auf niedrige Auflösung.
Seedance 2.0 unterscheidet sich durch Konsistenz bei Mehrfachaufnahmen und durch multimodale Referenzeingabe, unterstützt durch den Geschwindigkeitsvorteil von ByteDance.
Wo man zugreifen kann
Die CapCut-Beta ist jetzt für chinesische Nutzer live. Die globale Verfügbarkeit wird voraussichtlich Mitte Februar erwartet:
- Editly, Die Integration ist in Bearbeitung und wird live gehen, sobald das Modell weltweit verfügbar ist
- Dreamina (dreamina.capcut.com"), die primäre First-Party-Plattform
- APIs von Drittanbietern wie Replicate und Segmind
Dreamina hat historisch gesehen Zugang zur kostenfreien Stufe für neue Seedance-Veröffentlichungen angeboten.
Fazit
Mehrschuss-Erzählgenerierung und eine multimodale Eingabe aus 12 Dateien sind die Hauptmerkmale. Die Reaktionen der Beta-Tester sind positiv. Unabhängige Benchmarks werden die Details liefern, sobald das Modell öffentlich zugänglich ist.