LogoEditly
Atrás
seendace-2-0-features-image

Seedance 2.0: el generador de video con IA de próxima generación de ByteDance

Seedance 2.0 entró en beta el 7 de febrero de 2026. Resolución 2K, narrativa de múltiples tomas, entrada multimodal de 12 archivos y sincronización de audio nativa. Aquí está lo que sabemos de los probadores beta y de los usuarios de acceso anticipado.

Seedance 2.0 entró en beta el 7 de febrero de 2026, desplegándose primero en CapCut para usuarios chinos. Se espera que la fecha de lanzamiento global sea alrededor de mediados de febrero de 2026, con disponibilidad a través deDreamina,Editlyy otras plataformas. El equipo Seed de ByteDance ha estado optimizando el modelo durante meses más allá del calendario original. Esta versión añade narración nativa de múltiples tomas, salida en 2K y una sincronización audiovisual más estrecha, además de lo que Seedance 1.0 Pro (junio de 2025) y Seedance 1.5 Pro (diciembre de 2025) entregaron.

Historial de versiones

  • Seedance 1.0 Pro, 11 de junio de 2025. Text-to-video and image-to-video a 1080p/24fps, clips de 5-10 segundos. Encabezó ambas tablas de clasificación de T2V e I2V al lanzamiento. Acceso gratuito en Dreamina.
  • Seedance 1.5 Pro, 16 de diciembre de 2025. Se añadió generación audiovisual conjunta en una sola pasada, con sincronización labial de milisegundos en seis idiomas. Control cinematográfico de la cámara y una aceleración de 10x en la inferencia mediante destilación.
  • Seedance 2.0, beta el 7 de febrero de 2026 (CapCut, China). Se espera un lanzamiento global a mediados de febrero. Originalmente estaba planeado para finales de 2025; fue retrasado para una mayor optimización. Los probadores beta describen la salida como notablemente mejor que 1.5 Pro.

La historia de fondo

Antes de que Google abandonara Veo 3, el equipo de Seedance seguía buscando dirección. Veo 3 les mostró lo que el mercado realmente necesitaba. Desecharon la antigua hoja de ruta y se reconstruyeron desde cero.

Ese giro produjo Seedance 1.5 Pro, que ya era sólido. El equipo entonces tuvo la versión 2.0 en un estado listo para su lanzamiento alrededor de noviembre-diciembre de 2025, pero sintió que la calidad podría avanzar más. Pasaron otros dos a tres meses puliéndolo.

Los probadores beta con acceso anticipado dicen que la brecha entre 1.5 Pro y 2.0 es difícil de pasar por alto. Los usuarios chinos de la beta de CapCut han estado generando cortometrajes y anuncios desde el día del lanzamiento. Un probador produjo un corto de artes marciales al estilo Shaw Brothers con audio sincronizado y cámara en movimiento libre en un único prompt. Otro probador generó una animación de 15 segundos al estilo Demon Slayer a partir del texto por sí solo. La demora parece deliberada: ByteDance se está tomando su tiempo para hacerlo bien.

Novedades

Narrativa de múltiples tomas. Un único prompt genera múltiples tomas coherentes con personajes consistentes, manteniendo la misma cara y el mismo atuendo a través de los ángulos de la cámara.

Resolución 2K, un 30% más rápido. A partir de 1080p. Un clip en 2K se genera en unos 60 segundos. Soporta seis relaciones de aspecto (16:9, 9:16, 4:3, 3:4, 21:9, 1:1). Los clips duran entre 5 y 15 segundos.

Entrada multimodal con hasta 12 archivos de referencia. Mezcla imágenes, videos y audio. Utiliza una imagen para fijar el estilo visual, un video para el movimiento y el desplazamiento de la cámara.

Audio generado en una sola pasada. Un Transformador de difusión de doble rama maneja el diálogo, Foley y el sonido ambiental junto al video. Sincronización de labios a nivel de fonemas en ocho o más idiomas.

Edición en video. Intercambiar personajes, agregar o eliminar objetos, ampliar clips, expansión de lienzo y in-painting, todo mediante instrucciones de texto.

Cómo se compara

Sora 2 tiene mayor precisión física y realismo de una sola toma, pero el audio nativo es más débil y no cuenta con soporte de narrativa de múltiples tomas.

Veo 3.1 es el actual punto de referencia de realismo, obteniendo la puntuación más alta en una evaluación de 1,003 indicaciones. También cuenta con audio nativo, pero cuesta más y es menos accesible.

Kling 2.6 ofrece una generación nativa de audio sólida y una función de transferencia de movimiento para copiar movimientos desde un video de referencia. Límite de resolución más bajo.

Seedance 2.0 se distingue por su consistencia en múltiples tomas y por una entrada de referencia multimodal, respaldada por la ventaja de velocidad de ByteDance.

Dónde acceder

La beta de CapCut ya está disponible para usuarios chinos. Se espera la disponibilidad global para mediados de febrero a través de:

  • Editly, la integración está en progreso y entrará en producción tan pronto como el modelo esté disponible a nivel mundial
  • Dreamina (dreamina.capcut.com), la principal plataforma de primera parte
  • APIs de terceros como Replicate y Segmind

Dreamina ha ofrecido históricamente acceso al nivel gratuito para las nuevas versiones de Seedance.

Conclusión

La generación de narrativa multishot y la entrada multimodal de 12 archivos son las características principales. Las reacciones de las pruebas beta son positivas. Los benchmarks independientes proporcionarán los detalles una vez que el modelo sea público.

Crea imágenes y videos rápido

Genera imágenes y videos con AI, elimina fondos y restaura fotos—directamente en tu navegador. Indica o sube, previsualiza, descarga. Sin instalaciones.