OpenAI lanza Sora 2: vídeo y audio con IA llegan a una app social

  • OpenAI presenta Sora 2 con generación de vídeo y audio sincronizados y mejoras físicas notables.
  • Llega una app social para iOS con cameos verificados, feed personalizable y moderación reforzada.
  • Medidas de seguridad: marcas de agua, control de identidad, límites para adolescentes y restricciones de contenido.
  • Disponibilidad inicial por invitación en EE. UU. y Canadá, uso gratuito con límites y acceso avanzado para suscriptores Pro.

Generador de vídeo Sora 2 de OpenAI

Crear clips con un acabado casi profesional empieza a estar al alcance de cualquiera: OpenAI ha presentado Sora 2, su nuevo modelo de vídeo con audio integrado, junto a una aplicación para iPhone que facilita un uso más directo y social. La propuesta pone el foco en la accesibilidad y en la coherencia visual y sonora, con resultados que, según las demostraciones, se perciben mucho más verosímiles.

El lanzamiento combina avances técnicos con una capa de producto pensada para creadores y público general. Sora 2 promete mejor fidelidad física, continuidad entre planos y control de estilo, además de una herramienta de edición que permite insertar a la propia persona en escenas generadas. El despliegue arranca con invitaciones en EE. UU. y Canadá, gratuito con cupos y opciones de mayor calidad para suscriptores de ChatGPT.

Qué es Sora 2 y qué aporta realmente

Sora 2
Artículo relacionado:
Sora 2: la apuesta de OpenAI por el vídeo con IA y una app social

La nueva versión da un salto importante frente al primer Sora: ahora el sistema mantiene la persistencia de objetos y estado a lo largo de varios planos, encadena acciones sin romper la continuidad y obedece mejor las leyes de la física. OpenAI lo ejemplifica con un tiro fallido de baloncesto que, esta vez, rebota de forma natural en lugar de “teletransportarse” al aro, un fallo frecuente en modelos anteriores.

Sora 2 de OpenAI app social y generación de vídeo

Este comportamiento más creíble se apoya en entrenamiento a gran escala con datos de vídeo y en técnicas de control narrativo más precisas. El modelo entiende indicaciones complejas, respeta la continuidad espacial y temporal y ofrece estilos que van desde lo cinematográfico a la animación, con ajustes de duración y cambios de escena más coherentes.

Audio integrado, estilos y control creativo

Otra de las novedades es la generación de sonido nativa: Sora 2 crea paisajes sonoros, efectos e incluso diálogos sincronizados con la imagen a partir de una simple instrucción. Esta integración aporta inmersión y reduce dependencias de posproducción, algo que hasta ahora solo ofrecían contadas alternativas del mercado.

El sistema permite modular tono, encuadre y tratamiento visual, y admite secuencias breves —habitualmente de hasta 10 segundos— pensadas para el consumo móvil. Aunque el avance es evidente, OpenAI reconoce que el modelo aún comete errores y que la consistencia total no está garantizada en todos los contextos.

La app social: cameos, feed personalizable y moderación

Junto al modelo, OpenAI lanza una app para iOS llamada Sora con un feed de vídeos y funciones de remix. El usuario puede aparecer como cameo en escenas generadas tras una verificación breve de rostro y voz, lo que habilita la inserción de su imagen con permisos explícitos. Por diseño, la creación ocurre dentro de la aplicación y, salvo ese flujo de verificación, no admite subir archivos del carrete en esta fase.

La compañía afirma que el algoritmo del feed se guía por instrucciones en lenguaje natural y prioriza contenido de gente con la que el usuario interactúa, evitando optimizar el tiempo de uso. Para reforzar la seguridad, Sora impone límites por defecto a adolescentes, integra controles parentales desde ChatGPT y restringe usos sensibles: no se permiten rostros de figuras públicas sin consentimiento, ni contenido adulto o extremo.

En procedencia y derechos, todos los vídeos incluyen marcas de agua y credenciales digitales para identificar su origen. OpenAI asegura contar con herramientas internas de detección y limitar incluso la captura de pantalla. A nivel de propiedad intelectual, la empresa mantiene un sistema de solicitud de exclusión para titulares de derechos, una decisión que ha reavivado el debate sobre el entrenamiento con material disponible en Internet.

Acceso, precio y hoja de ruta

El acceso comienza por invitación en Estados Unidos y Canadá, con uso inicial gratuito y cupos generosos sujetos a capacidad de cómputo. Los suscriptores de ChatGPT Pro cuentan con una modalidad de mayor calidad —Sora 2 Pro—, y la compañía planea abrir una API más adelante. También se mantiene el modelo previo, Sora 1 Turbo, y está prevista una versión para Android sin fecha confirmada.

OpenAI contempla habilitar pagos para generar más vídeos si la demanda supera los recursos. En Europa, la expansión dependerá de consideraciones regulatorias, por lo que no hay calendario público por ahora.

Impacto para creadores y competencia en el mercado

Para estudios pequeños, agencias y creadores en solitario, Sora 2 reduce barreras al permitir material de alta calidad con menos coste y tiempo. Al mismo tiempo, tensiona sectores como el vídeo de stock o ciertos flujos de animación y VFX, que deberán convivir con una IA capaz de replicar tareas en cuestión de segundos.

El movimiento se alinea con un ecosistema en ebullición: Google impulsa Veo 3, Meta explora formatos sociales con IA y plataformas como Runway o Pika avanzan en generación audiovisual. La apuesta de OpenAI por unir modelo y red social pretende diferenciarse con una experiencia integrada que combina creación, participación y control de identidad.

Sora 2 señala una dirección clara: vídeos más creíbles, audio sincronizado y una capa social pensada para crear y compartir con menos fricción. El proyecto llega con controles reforzados y polémicas abiertas sobre derechos y entrenamiento, pero también con la promesa de acercar la producción audiovisual avanzada a más personas, a la espera de su despliegue global.


Síguenos en Google News