Crear clips con un acabado casi profesional empieza a estar al alcance de cualquiera: OpenAI ha presentado Sora 2, su nuevo modelo de vídeo con audio integrado, junto a una aplicación para iPhone que facilita un uso más directo y social. La propuesta pone el foco en la accesibilidad y en la coherencia visual y sonora, con resultados que, según las demostraciones, se perciben mucho más verosímiles.
El lanzamiento combina avances técnicos con una capa de producto pensada para creadores y público general. Sora 2 promete mejor fidelidad física, continuidad entre planos y control de estilo, además de una herramienta de edición que permite insertar a la propia persona en escenas generadas. El despliegue arranca con invitaciones en EE. UU. y Canadá, gratuito con cupos y opciones de mayor calidad para suscriptores de ChatGPT.
Qué es Sora 2 y qué aporta realmente
La nueva versión da un salto importante frente al primer Sora: ahora el sistema mantiene la persistencia de objetos y estado a lo largo de varios planos, encadena acciones sin romper la continuidad y obedece mejor las leyes de la física. OpenAI lo ejemplifica con un tiro fallido de baloncesto que, esta vez, rebota de forma natural en lugar de “teletransportarse” al aro, un fallo frecuente en modelos anteriores.

Este comportamiento más creíble se apoya en entrenamiento a gran escala con datos de vídeo y en técnicas de control narrativo más precisas. El modelo entiende indicaciones complejas, respeta la continuidad espacial y temporal y ofrece estilos que van desde lo cinematográfico a la animación, con ajustes de duración y cambios de escena más coherentes.
Audio integrado, estilos y control creativo
Otra de las novedades es la generación de sonido nativa: Sora 2 crea paisajes sonoros, efectos e incluso diálogos sincronizados con la imagen a partir de una simple instrucción. Esta integración aporta inmersión y reduce dependencias de posproducción, algo que hasta ahora solo ofrecían contadas alternativas del mercado.
El sistema permite modular tono, encuadre y tratamiento visual, y admite secuencias breves —habitualmente de hasta 10 segundos— pensadas para el consumo móvil. Aunque el avance es evidente, OpenAI reconoce que el modelo aún comete errores y que la consistencia total no está garantizada en todos los contextos.
La app social: cameos, feed personalizable y moderación
Junto al modelo, OpenAI lanza una app para iOS llamada Sora con un feed de vídeos y funciones de remix. El usuario puede aparecer como cameo en escenas generadas tras una verificación breve de rostro y voz, lo que habilita la inserción de su imagen con permisos explícitos. Por diseño, la creación ocurre dentro de la aplicación y, salvo ese flujo de verificación, no admite subir archivos del carrete en esta fase.
La compañía afirma que el algoritmo del feed se guía por instrucciones en lenguaje natural y prioriza contenido de gente con la que el usuario interactúa, evitando optimizar el tiempo de uso. Para reforzar la seguridad, Sora impone límites por defecto a adolescentes, integra controles parentales desde ChatGPT y restringe usos sensibles: no se permiten rostros de figuras públicas sin consentimiento, ni contenido adulto o extremo.
En procedencia y derechos, todos los vídeos incluyen marcas de agua y credenciales digitales para identificar su origen. OpenAI asegura contar con herramientas internas de detección y limitar incluso la captura de pantalla. A nivel de propiedad intelectual, la empresa mantiene un sistema de solicitud de exclusión para titulares de derechos, una decisión que ha reavivado el debate sobre el entrenamiento con material disponible en Internet.
Acceso, precio y hoja de ruta
El acceso comienza por invitación en Estados Unidos y Canadá, con uso inicial gratuito y cupos generosos sujetos a capacidad de cómputo. Los suscriptores de ChatGPT Pro cuentan con una modalidad de mayor calidad —Sora 2 Pro—, y la compañía planea abrir una API más adelante. También se mantiene el modelo previo, Sora 1 Turbo, y está prevista una versión para Android sin fecha confirmada.
OpenAI contempla habilitar pagos para generar más vídeos si la demanda supera los recursos. En Europa, la expansión dependerá de consideraciones regulatorias, por lo que no hay calendario público por ahora.
Impacto para creadores y competencia en el mercado
Para estudios pequeños, agencias y creadores en solitario, Sora 2 reduce barreras al permitir material de alta calidad con menos coste y tiempo. Al mismo tiempo, tensiona sectores como el vídeo de stock o ciertos flujos de animación y VFX, que deberán convivir con una IA capaz de replicar tareas en cuestión de segundos.
El movimiento se alinea con un ecosistema en ebullición: Google impulsa Veo 3, Meta explora formatos sociales con IA y plataformas como Runway o Pika avanzan en generación audiovisual. La apuesta de OpenAI por unir modelo y red social pretende diferenciarse con una experiencia integrada que combina creación, participación y control de identidad.
Sora 2 señala una dirección clara: vídeos más creíbles, audio sincronizado y una capa social pensada para crear y compartir con menos fricción. El proyecto llega con controles reforzados y polémicas abiertas sobre derechos y entrenamiento, pero también con la promesa de acercar la producción audiovisual avanzada a más personas, a la espera de su despliegue global.