Google ha dado un paso más en su estrategia de transparencia digital al hacer que Gemini pueda decirnos si un vídeo ha sido generado o modificado con inteligencia artificial, siempre que se haya usado su propia tecnología para crearlo. En un momento en el que los deepfakes y los montajes hiperrealistas se han colado en redes sociales, disponer de una herramienta de este tipo empieza a ser casi imprescindible.
Esta nueva capacidad llega integrada directamente en la app de Gemini para móviles y en la versión web, sin necesidad de instalar nada adicional. La función se apoya en SynthID, el sistema de marca de agua invisible de Google, y busca convertirse en una referencia para detectar contenido sintético, algo que ya impacta en España y en el resto de Europa, donde los usuarios de Gemini pueden utilizarla desde el 19 de diciembre de 2025 si cuentan con suscripción en los países donde está disponible.
Gemini detecta si un vídeo está generado con IA de Google

La idea es sencilla: el usuario sube un vídeo a Gemini y le pregunta directamente si ha sido generado con IA. Se puede hacer tanto desde el navegador como desde la app, pulsando el botón para adjuntar archivos y seleccionando el clip que queremos comprobar. Después, basta con escribir algo del estilo «¿Este vídeo está creado con IA de Google?» para que el asistente se ponga manos a la obra.
Una vez subido el archivo, Gemini analiza tanto la imagen como el audio del vídeo en busca de SynthID, la marca de agua digital que Google inserta en el contenido que generan o modifican sus modelos. Si detecta esa huella, el sistema no se limita a devolver un simple “sí” o “no”, sino que ofrece una respuesta contextualizada, indicando en qué fragmentos exactos aparecen elementos generados por IA, ya sea en los fotogramas, en la pista sonora o en ambas.
La funcionalidad no se activa solo con clips creados desde cero: también es capaz de identificar vídeos que hayan sido editados o retocados con las herramientas de IA de Google, siempre que mantengan la marca de SynthID incrustada. Esto resulta especialmente útil en un escenario en el que muchos contenidos mezclan metraje real con segmentos sintéticos sin avisar al espectador.
Conviene tener en cuenta que esta posibilidad de subir archivos de vídeo se suma a lo que Gemini ya ofrecía con las imágenes. Desde finales de 2023, el asistente es capaz de detectar fotografías creadas o modificadas por la IA de Google, y ahora extiende ese mismo enfoque al formato audiovisual, mucho más complejo de analizar.
SynthID: la marca de agua invisible que lo hace posible

El pilar técnico de esta novedad es SynthID, un sistema desarrollado por Google DeepMind y presentado en 2023. Esta tecnología inserta una especie de “huella digital” en el contenido generado por IA, que queda embebida en los píxeles de cada fotograma y también puede integrarse en las pistas de audio.
Esta marca de agua es imperceptible para el ojo y el oído humanos, de modo que no altera la experiencia de visionado, pero sí puede ser reconocida por detectores especializados como el propio Gemini o la herramienta web que Google puso a disposición del público para analizar imágenes. Según la compañía, SynthID está diseñada para resistir recortes, compresiones y ediciones habituales que suelen aplicarse al compartir un vídeo en redes.
En la práctica, cuando un usuario sube un archivo compatible, Gemini escanea el contenido en busca de los patrones matemáticos de SynthID. Si los encuentra, puede incluso detallar momentos concretos, con mensajes del estilo: “Se ha detectado SynthID en el audio entre los segundos 10 y 20. No se ha detectado SynthID en la imagen”. Esa precisión ayuda a entender si todo el clip es sintético o solo ciertas partes.
La ambición de Google pasa porque esta solución se convierta en un estándar de industria para marcar y verificar contenido generado con IA. Empresas como NVIDIA ya han anunciado que integrarán SynthID en sus herramientas, lo que podría extender este tipo de marca de agua a más modelos y plataformas con el tiempo.
Límites claros: solo detecta IA de Google y vídeos cortos

La propia compañía reconoce que la herramienta tiene varias limitaciones importantes, que conviene tener muy presentes para evitar una falsa sensación de seguridad. La primera de ellas es puramente técnica: Gemini solo puede analizar vídeos de hasta 100 MB de tamaño y 90 segundos de duración. Aun así, este margen cubre buena parte de los contenidos que se mueven en TikTok, Instagram Reels, YouTube Shorts o en estados de mensajería.
El segundo límite es de alcance: Gemini solo es capaz de identificar de forma fiable los vídeos generados o modificados con modelos de Google, como Veo 3 y otras herramientas de la casa que ya integran SynthID. Si un clip ha sido creado con sistemas de terceros —por ejemplo, con modelos de vídeo de otras compañías— y no incluye esta marca de agua, el asistente no podrá determinar con precisión su origen.
Esto significa que la nueva función no es un detector universal de deepfakes, sino un mecanismo de transparencia orientado principalmente al ecosistema de Google. Para muchos expertos en seguridad digital, este enfoque deja claro que seguimos lejos de contar con un estándar global que permita distinguir de forma fiable entre contenido “orgánico” y material generado por IA en cualquier plataforma.
Voces críticas en el sector señalan que, sin una norma compartida entre las grandes tecnológicas, la protección frente a la desinformación seguirá siendo parcial. Como apuntan algunos analistas, implementar un sistema verdaderamente universal requeriría acuerdos regulatorios y posiblemente obligaciones legales, ya que no todas las empresas tienen incentivos económicos para priorizar este tipo de mecanismos de seguridad.
Con todo, dentro de su ámbito de actuación, la herramienta supone un avance notable: quienes consumen o comparten contenido creado con la IA de Google disponen ahora de una forma sencilla de comprobar si lo que tienen entre manos es sintético, sin necesidad de conocimientos técnicos avanzados.
Cómo usar Gemini para comprobar un vídeo paso a paso
El funcionamiento está pensado para que cualquiera pueda usarlo sin complicaciones. En la práctica, el proceso se reduce a unos pocos toques en el móvil o clics en el ordenador, de manera que la verificación forme parte natural del uso diario de Gemini.
Para hacerlo, basta con abrir Gemini —ya sea en la aplicación móvil o en la web— y pulsar el botón de añadir archivos junto a la barra de texto. A continuación, se selecciona el vídeo que se quiere analizar, siempre que cumpla con el límite de tamaño y duración. Una vez cargado el archivo, solo hay que escribir una pregunta clara, como “¿Este vídeo se ha generado con IA de Google?” o “¿Este vídeo está creado con IA?”.
El asistente se encarga del resto: lanza el análisis mediante SynthID y, tras unos instantes, devuelve una respuesta explicando si ha detectado o no la marca de agua. En el caso de encontrarla, suele detallar los intervalos de tiempo y las pistas (audio e imagen) en los que aparece, lo que permite identificar con bastante claridad qué partes del contenido han sido generadas artificialmente.
Esta integración directa en el flujo de conversación con el asistente hace que no haga falta acudir a herramientas externas ni a páginas adicionales: la verificación de vídeos se suma a las consultas habituales que ya se realizan a Gemini, desde pedir resúmenes hasta generar textos o imágenes.
En Europa y en España, la novedad se alinea con el contexto regulatorio que empieza a perfilarse en torno a la IA generativa. De hecho, mecanismos como SynthID encajan con la idea de etiquetar claramente los contenidos sintéticos, algo que tanto legisladores como organismos reguladores llevan tiempo reclamando para reducir riesgos de manipulación informativa.
Un intento de frenar los deepfakes y la desinformación
La actualización de Gemini llega en un momento en el que la calidad de los vídeos generados con IA ha dado un salto enorme. Modelos como Veo 3 ya son capaces de producir escenas muy convincentes, y cada vez resulta más complicado, incluso para un ojo entrenado, distinguir qué es real y qué no simplemente mirando la pantalla.
En redes sociales circulan a diario clips hiperrealistas de políticos, celebridades o personas anónimas diciendo o haciendo cosas que nunca sucedieron. Estos contenidos no solo se quedan en el terreno del entretenimiento o la sátira: pueden afectar a procesos electorales, dañar reputaciones o incluso utilizarse para extorsiones, estafas y campañas de desinformación coordinadas.
En este escenario, la posibilidad de tomar un vídeo sospechoso y preguntarle directamente a Gemini si ha sido generado con IA de Google añade una capa adicional de protección para el usuario medio. No lo soluciona todo, pero ayuda a frenar la difusión de ciertos tipos de montajes antes de que se hagan virales, especialmente aquellos que se han creado con las propias herramientas de la compañía.
Google enmarca esta función dentro de una estrategia más amplia de mecanismos de transparencia en sus productos de inteligencia artificial. La compañía ya venía aplicando marcas de agua y avisos visuales en imágenes y textos generados por sus modelos, y ahora lleva ese mismo enfoque al vídeo, un formato especialmente delicado por su capacidad de persuasión.
Al mismo tiempo, expertos en comunicación digital insisten en que ningún sistema automático es infalible y que la detección tecnológica debe ir acompañada de pensamiento crítico. Cuestionar quién podría haber grabado una escena, qué interés hay detrás de un contenido o fijarse en pequeños fallos de coherencia visual —manos extrañas, sincronización labial rara, movimientos poco naturales— sigue siendo clave para no caer en la trampa de los montajes más sofisticados.
Impacto en usuarios de España y Europa
En el caso concreto de Europa, y de España en particular, la llegada de esta función se produce en paralelo al despliegue de Gemini como servicio de suscripción en buena parte del continente. Los usuarios que ya utilizan el asistente para trabajar, estudiar o generar contenido cuentan ahora con una herramienta extra para evaluar la autenticidad de los vídeos que consumen y comparten.
La adopción de SynthID y de sistemas similares encaja con el espíritu regulador de la Unión Europea, que lleva tiempo poniendo el foco en la responsabilidad de las grandes plataformas frente a la desinformación. Aunque todavía no existe un estándar único obligatorio, este tipo de iniciativas anticipan el tipo de controles que podrían generalizarse en los próximos años.
En el día a día, el impacto puede notarse especialmente en los formatos cortos que dominan redes sociales. Muchos de los vídeos que se viralizan en España —ya sea en grupos de mensajería, en plataformas de vídeo o en aplicaciones de moda— encajan en el límite de tamaño y duración que admite el detector de Gemini, lo que facilita incorporar la verificación como un gesto más antes de reenviar algo.
Con todo, también aquí se repite la advertencia principal: si el vídeo ha sido creado con herramientas que no integran SynthID, Gemini no tendrá forma de certificar su origen. De cara al usuario, eso implica que un resultado negativo no garantiza que el contenido sea auténtico, sino simplemente que no se ha detectado la huella específica de la IA de Google.
Así las cosas, la nueva función de Gemini se coloca como una pieza más en el puzle de la verificación digital: útil y bastante directa para todo lo que pasa por el ecosistema de Google, limitada para el resto. Mientras la industria debate sobre estándares comunes y los reguladores valoran imponer obligaciones más estrictas, esta herramienta ya ofrece a millones de personas una forma rápida de saber, al menos, si un vídeo lleva la firma invisible de la inteligencia artificial de la compañía.