
ByteDance lanzó Seedance 2.0 en febrero de 2026 y en menos de 48 horas ya había generado clips tan realistas de Tom Cruise peleando con Brad Pitt que Hollywood reaccionó con cartas de cese. El lanzamiento global se pausó, se rediseñaron los filtros y hoy el modelo está disponible en CapCut y Dreamina — con el Elo más alto del mundo en generación de video.
Elo 1.269
text-to-video — #1 mundial
Elo 1.351
image-to-video — #1 mundial
15 seg
duración máx. · 1080p
12 refs
inputs multimodales
Seedance 2.0 es el modelo de generación de video de ByteDance — la empresa detrás de TikTok — lanzado el 10 de febrero de 2026. No es una actualización incremental: usa una arquitectura Dual-Branch Diffusion Transformer que genera audio y video de forma simultánea y nativa, algo que ningún competidor de la misma categoría hacía antes. Acepta hasta 12 archivos de referencia en una sola generación: 9 imágenes, 3 videos y 3 audios.
Los analistas lo llamaron el “momento DeepSeek para el video con IA”: al igual que DeepSeek sacudió el mercado de los LLMs, Seedance 2.0 provocó caídas en acciones tecnológicas de EE.UU. y subidas en bolsas chinas. En el benchmark de Artificial Analysis, superó a Google Veo 3, OpenAI Sora 2 y Runway Gen-4.5 en las dos categorías principales.
Por qué es diferente técnicamente
La mayoría de los modelos generan video silencioso y añaden audio en postproducción. Seedance 2.0 genera ambos en el mismo paso, con sincronización labial nativa en más de 8 idiomas. Además, su sistema @ permite referenciar personajes, movimiento, cámara y sonido por separado — control a nivel de director, no de usuario de prompt.
7 feb 2026
Beta limitada en China. En menos de 48 horas se viralizan clips de Tom Cruise peleando con Brad Pitt, personajes de Friends como nutrias, y Will Smith en batalla con un monstruo de espagueti.
10 feb 2026
Lanzamiento oficial. El guionista de Deadpool & Wolverine, Rhett Reese, publica en redes: “Odio decirlo. Probablemente se acabó para nosotros.” La Motion Picture Association exige a ByteDance que cese la actividad infractora.
13 feb 2026
Disney envía carta de cese y desistimiento acusando a ByteDance de “robo virtual de IP de Disney”. Paramount Skydance suma acusaciones por Star Trek, South Park y Dora the Explorer.
16 feb 2026
ByteDance declara que “respeta los derechos de propiedad intelectual” y anuncia refuerzo de filtros. Restringe temporalmente inputs con rostros reales.
16 mar 2026
Los senadores estadounidenses Marsha Blackburn y Peter Welch exigen por carta al CEO Liang Rubo el cierre inmediato de Seedance, calificándolo como “el ejemplo más flagrante de infracción de copyright de un producto ByteDance hasta la fecha”.
15–25 mar 2026
Pausa del lanzamiento global mientras ingenieros y abogados rediseñan los filtros de IP. Se implementa red-teaming con empresa tercera y watermarks invisibles estándar C2PA.
26 mar 2026
Relanzamiento en CapCut para Brasil, Indonesia, México, Filipinas, Tailandia y Vietnam. Dos días después de que OpenAI cerrara su app Sora, dejando el mercado de video IA cada vez más dominado por empresas chinas.
El problema no era solo la calidad — era la precisión. Un creador de contenido que subió una foto de la entrada de su empresa descubrió que el modelo generó el otro lado del edificio (que nunca había fotografiado) y replicó su voz con exactitud. Eso no es un filtro creativo: es identidad generada sin consentimiento.
“En poco tiempo, una persona va a poder sentarse frente a un computador y crear una película indistinguible de lo que Hollywood produce hoy.”
— Rhett Reese, guionista de Deadpool & Wolverine y Zombieland
La pregunta que también surgió entre profesionales del sector fue técnica: ¿los clips virales eran generación pura o workflows de video-a-video con green screen de stuntmen? Seedance mostraba ejemplos de workflows R2V en su sitio, lo que sugiere que parte del impacto visual puede venir de referencias de video reales — algo relevante para quienes evalúen el modelo para producción.
Resolución máxima
1080p (demo hasta 2K en versión china)
Duración máxima
15 segundos · 6 aspect ratios
Inputs simultáneos
9 imágenes + 3 videos + 3 audios + texto
Audio nativo
Sí — lip-sync en 8+ idiomas, incluido español
Dónde acceder
CapCut, Dreamina, Pippit · API vía plataformas terceras
Restricciones actuales
Sin generación de rostros reales · Sin IP no autorizada · No disponible en EE.UU. aún
Seedance 2.0 lidera en control multimodal y benchmarks, pero el mercado tiene cuatro opciones serias con roles distintos. Esta es la lectura práctica para quien produce:
| Modelo | Fortaleza principal | Mejor para | Precio ref. |
|---|---|---|---|
| Seedance 2.0 #1 Elo | Control multimodal · audio nativo · consistencia narrativa | Publicidad, musicales, trabajo con plantillas | Variable · API terceros |
| Kling 3.0 | Movimiento humano · videos hasta 3 min · precio bajo | Redes sociales · prototipado rápido · volumen | ~$7/mes |
| Veo 3.1 | Fotorrealismo · 4K 60fps · ciencia de color | Entregables finales · producción premium | $250/mes |
| Runway Gen-4.5 | Herramientas de edición profesional · integración postpro | Flujos de postproducción · cineastas | $12–76/mes |
El dato más relevante del mercado en este momento: OpenAI cerró su app Sora el 24 de marzo de 2026, dos días antes del relanzamiento de Seedance. El espacio de video IA está quedando dominado por empresas chinas — ByteDance y Kuaishou — y Google. Los jugadores occidentales van retrasados.
“Muchos equipos de producción ya usan múltiples modelos: Seedance 2.0 para trabajo basado en referencias y plantillas, Kling 3.0 para prototipado rápido, y Veo 3.1 para entregas finales.”
— WaveSpeed AI, comparativa de modelos de video 2026
No todavía. A abril de 2026, Seedance 2.0 mantiene el Elo más alto en ambas categorías según Artificial Analysis, por encima de Veo 3, Sora 2 y Runway Gen-4.5. Kling 3.0 es el competidor más cercano en calidad general y lo supera en precio y disponibilidad de API.
Lo que sí es claro es que el ciclo de actualización en este espacio es de semanas, no de meses. La ventaja de Seedance hoy no es garantía de nada en 60 días. Para quien trabaja en producción, el movimiento inteligente no es casarse con un modelo — es conocer el ecosistema completo y saber cuándo usar cuál.
Lectura para producción publicitaria IA
Seedance 2.0 es el modelo más potente hoy para trabajo con referencias, consistencia de personajes y control de cámara. Pero su disponibilidad limitada — sin EE.UU., API solo vía terceros — lo hace menos predecible para flujos de producción comercial que necesitan estabilidad. Kling 3.0 sigue siendo la opción más práctica para volumen. Veo 3.1 para calidad máxima de entrega.