Meta ha decidido dar un paso más en su estrategia de contenidos generados por inteligencia artificial con Vibes, una plataforma que pasa de ser una función interna a convertirse en una aplicación propia para móviles. La compañía quiere comprobar hasta dónde puede llegar un formato en el que todos los vídeos que ves y creas están producidos por IA, sin grabaciones tradicionales de por medio.
Tras unos meses de pruebas integradas en Meta AI, el gigante tecnológico está testando ahora una versión standalone para iOS y Android. El movimiento busca ofrecer un entorno más centrado, donde la gente se conecte solo para crear, descubrir y compartir clips sintéticos, en un formato muy similar al de TikTok o Reels, pero con una diferencia clave: aquí todo ha pasado por la inteligencia artificial.
Qué es Vibes y por qué Meta la separa de Meta AI
Vibes nació en septiembre de 2025 como un feed de vídeos cortos dentro de la app Meta AI. Desde ese espacio, los usuarios podían escribir descripciones, subir fotos o clips y dejar que los modelos generativos se encargasen de crear vídeos listos para compartir. Junto a la parte creativa, la función incluía un muro vertical con contenido de otros usuarios, muy en la línea de lo que ya se ve en TikTok, Instagram Reels o Facebook Stories.
Meta asegura que, desde ese lanzamiento inicial, el uso de Meta AI y de Vibes ha crecido de forma constante. Aunque la empresa no ha publicado cifras concretas, habla de una tracción “positiva” y de un aumento notable en la creación y el consumo de vídeos generados por IA. Ese comportamiento ha sido la señal para plantear una app separada con identidad propia.
Con la nueva versión, Vibes deja de ser una simple pestaña para convertirse en una aplicación independiente centrada exclusivamente en contenido de IA. La idea de Meta es reducir distracciones, ofrecer una experiencia más inmersiva y posicionar Vibes como un competidor directo de otras plataformas de vídeo sintético, con Sora de OpenAI en el punto de mira.
En Europa y en países como España, Vibes llegó como función integrada a finales de 2025, tras un despliegue inicial en Estados Unidos. Con las pruebas de la app autónoma, Meta busca comprobar si existe product-market fit suficiente para escalar este modelo como un producto global de referencia dentro de su ecosistema.

Cómo se crean los vídeos con IA dentro de Vibes
El objetivo de Vibes es que cualquiera pueda producir clips con aspecto profesional sin saber de edición ni disponer de equipo de rodaje. Para ello, la app combina modelos de lenguaje como Llama 4 con motores de generación de vídeo propios de Meta, empaquetados en un flujo de trabajo muy sencillo orientado al móvil.
Una de las vías principales de uso es la generación directa desde texto. El usuario escribe un prompt del tipo “un caballero medieval caminando por una ciudad con luces de neón” o “un astronauta bailando tango en una estación espacial cyberpunk” y, en cuestión de segundos, la app devuelve un vídeo corto con imagen y sonido integrados. No hace falta cámara, ni iluminación, ni grabar nada físicamente.
Otra opción es partir de recursos visuales existentes. Se puede subir una foto o un clip ya grabado para convertir fotos a vídeo con IA, añadir efectos, transformar el estilo visual o recrear la escena en clave de animación, anime o estética más realista. La idea es que el material original sirva como base sobre la que la IA “pinte” un resultado nuevo.
La función que Meta destaca con más fuerza es el remix de vídeos. A diferencia de los duetos clásicos, esta característica permite tomar un vídeo del feed —incluyendo ciertos contenidos procedentes de Instagram— y pedirle a la IA que lo reinterprete: cambiar personajes, modificar el entorno, ajustar la paleta de colores o convertir un clip serio en algo más humorístico, manteniendo la estructura original.
Antes de publicar, Vibes ofrece una capa de edición y personalización adicional. El usuario puede añadir música (incluida música generada por IA), capas gráficas, filtros, animaciones y distintos estilos visuales. Según Meta, una parte importante del procesado se realiza directamente en el dispositivo, lo que ayudaría a mejorar la velocidad de generación y la privacidad de los usuarios frente a un modelo puramente en la nube.
Un feed que aprende de ti y fomenta el remix social
El corazón de la experiencia Vibes es un feed vertical personalizado que se alimenta de las interacciones de cada usuario: tiempo de visualización, likes, compartidos, comentarios y, de forma particular, tipo de prompts y estilos creativos favoritos. Cuanto más se usa la app, más se ajustan las recomendaciones y más específico se vuelve el flujo de contenido.
En la práctica, el comportamiento se asemeja al algoritmo de TikTok, pero con una diferencia clave: toda la oferta está compuesta por vídeos generados o modificados con IA. Eso abre un terreno nuevo donde lo habitual son escenas imposibles de rodar en el mundo real y combinaciones estéticas que rozan lo experimental, algo que puede gustar mucho a unos usuarios y saturar a otros.
Meta insiste en el componente social de la plataforma. Más allá de consumir contenido, los usuarios pueden remixar clips de otros, reutilizar escenas, cambiar estilos y reinterpretar piezas virales. Esta dinámica crea cadenas de versiones de un mismo vídeo, donde cada persona aporta su propia idea sobre una base común, algo que la compañía describe como un ciclo de creatividad colaborativa.
El contenido no se queda solo en Vibes. Desde la propia app es posible compartir los vídeos por mensaje privado, enviarlos a contactos o publicarlos en otras plataformas del grupo, como Instagram y Facebook, tanto en Stories como en Reels. Meta asegura que el intercambio directo de estos clips por mensajería está creciendo, lo que encaja con hábitos ya consolidados en WhatsApp o Messenger.
Para lidiar con el riesgo de desinformación y deepfakes, la compañía ha implementado marcas de agua invisibles y etiquetas de “Generado con IA” en los vídeos, y ha explorado formas de detectar vídeos creados con IA, con el objetivo de que cualquier usuario tenga claro que lo que está viendo no procede de una cámara tradicional.
Modelo de negocio: de la gratuidad inicial al posible freemium
En esta fase de pruebas, Vibes se está ofreciendo como aplicación gratuita, sin coste de entrada para generar y compartir vídeos. Sin embargo, Meta ya ha dejado caer que evalúa un modelo freemium, en línea con las suscripciones premium que está testando en Facebook, Instagram y WhatsApp.
La idea que maneja la compañía es mantener un nivel básico de creación de vídeos accesible sin pagar, pero reservar determinadas funciones avanzadas —mayor resolución, tiempos de clip más largos, estilos exclusivos o herramientas profesionales de edición— para quienes contraten una suscripción mensual.
Detrás de este planteamiento está el alto coste computacional de los sistemas generativos. Cada vídeo creado supone un consumo de recursos notable, y las suscripciones son una manera de monetizar a los usuarios intensivos sin cerrar la puerta al público general. Meta ya ha confirmado a medios como TechCrunch que las pruebas de planes de pago ligados a funciones de IA se extenderán también a Vibes cuando la app esté más madura.
Este enfoque encaja con la carrera actual entre grandes tecnológicas por convertir la IA generativa en una línea de negocio recurrente. OpenAI, con Sora; Google, con sus herramientas creativas; y la propia Meta buscan un equilibrio entre ofrecer capacidades potentes y sostener los costes de infraestructura que hay detrás.
Queda por ver cómo reaccionarán los usuarios europeos cuando parte de las funciones de Vibes pasen a estar detrás de un muro de pago, especialmente en un contexto en el que las suscripciones digitales se acumulan entre plataformas de streaming, almacenamiento en la nube y software profesional.
Competencia con Sora y la batalla por el vídeo sintético
El movimiento para convertir Vibes en app independiente no se entiende solo como una evolución natural del producto, sino también como una respuesta directa a la competencia de Sora, la aplicación de OpenAI especializada en generación de escenas de alta calidad a partir de instrucciones de texto.
Sora llegó a situarse, tras su lanzamiento, por delante de ChatGPT en descargas en sus primeros días. Alcanzó alrededor de 3,2 millones de instalaciones en noviembre, aunque su ritmo se enfrió y en enero se quedó en torno a 1,2 millones, según datos citados por distintos medios. Ese descenso abre una ventana de oportunidad para que Meta coloque a Vibes como alternativa sólida dentro del segmento de vídeo generado por IA.
A diferencia del enfoque más cinematográfico y orientado a la calidad de producción de Sora, Vibes quiere posicionarse como una herramienta social y cotidiana. No tanto un estudio virtual de cine, sino un “juguete social” que permite a cualquiera improvisar contenido llamativo para compartir con amigos, remixar tendencias virales y mantener un flujo constante de clips ligeros.
La estrategia de Meta también pasa por integrar Vibes en su ecosistema más amplio de IA, que incluye centros de datos especializados, modelos propios, gafas inteligentes y asistentes conversacionales. De este modo, la aplicación se convierte en un campo de pruebas donde observar cómo la gente usa estas herramientas en su día a día.
Para Europa y España, donde la regulación sobre contenido sintético y protección de datos es más estricta, el despliegue de Vibes supone un test interesante: Meta tendrá que equilibrar ambición comercial, seguridad y transparencia para evitar fricciones con reguladores y usuarios preocupados por el exceso de “ruido” generado por IA, como casos de vídeos racistas generados con IA.
Una apuesta con luces, sombras y muchas preguntas abiertas
El auge de Vibes también llega rodeado de críticas. Parte de la comunidad creativa ha tildado el contenido predominante en estas plataformas de “AI slop”, una especie de “puré” de IA plagado de vídeos repetitivos, visualmente extraños y sin personalidad humana. Se cuestiona que Meta esté priorizando el volumen y el tiempo de uso por encima de la calidad artística, llenando la red de clips sintéticos cada vez más difíciles de diferenciar entre sí.
Meta, por su parte, responde con números: la creación de medios dentro de su ecosistema de IA habría crecido hasta diez veces en los últimos meses, según datos que la compañía ha compartido con distintos medios. Mark Zuckerberg define este tipo de herramientas como una forma de democratizar la expresión visual, más que como un sustituto del cine tradicional o de la creación profesional.
Otra preocupación habitual es el impacto de estas plataformas en el empleo creativo y en la narrativa online. A medida que se llenan los feeds con contenido generado por IA, algunos se preguntan qué espacio quedará para la producción humana, y si el público será capaz de seguir valorando la autoría cuando la línea entre “real” y “sintético” sea casi invisible.
Meta intenta mitigar parte de ese debate con medidas de transparencia —etiquetas, marcas de agua y explicaciones sobre el uso de IA—, pero la discusión sobre la llamada “sintetización masiva de Internet” seguirá encima de la mesa, especialmente en mercados como el europeo, más sensibles a los efectos de las grandes plataformas.
En paralelo, la compañía insiste en que Vibes está aún en fase de pruebas, con lanzamientos progresivos, ajustes en función del feedback y posibles cambios importantes antes de un despliegue mundial completo. El comportamiento de los usuarios en regiones como Europa y España será clave para decidir cuánto se invierte en ampliar la herramienta y qué límites se ponen a su uso.
Con Vibes, Meta se juega algo más que el éxito de una aplicación concreta: está poniendo a prueba si un feed formado únicamente por vídeos generados con IA puede sostener por sí solo una comunidad global activa. La apuesta combina facilidad de uso, integración con el ecosistema Meta, posibles suscripciones y una clara vocación de competir con Sora y otras propuestas similares, mientras abre un debate incómodo sobre la calidad, el valor y el impacto real de este nuevo tipo de entretenimiento digital.
