Alarma por vĂ­deos racistas generados con IA en TikTok: Veo 3 de Google bajo el foco

  • Varios vĂ­deos racistas creados con IA Veo 3 de Google se han viralizado en TikTok, acumulando millones de reproducciones.
  • El contenido ataca principalmente a comunidades negras, inmigrantes y judĂ­os mediante estereotipos ofensivos y deshumanizantes.
  • Tanto TikTok como Google prohĂ­ben expresamente estos contenidos, pero la detecciĂ³n y eliminaciĂ³n no es inmediata.
  • Organizaciones y expertos piden reforzar las salvaguardas y la supervisiĂ³n Ă©tica en el uso de inteligencia artificial generativa.

VĂ­deos racistas en TikTok creados por IA

En las Ăºltimas semanas se ha desatado una polĂ©mica en torno a TikTok por la propagaciĂ³n masiva de vĂ­deos racistas generados por inteligencia artificial. Estas creaciones han conseguido una gran difusiĂ³n y han encendido las alarmas sobre los riesgos de las nuevas herramientas de IA, poniendo en entredicho la capacidad de las plataformas y de los propios desarrolladores para frenar los discursos de odio que viajan por la red a toda velocidad.

La controversia se centra en la nueva IA de Google, Veo 3, presentada recientemente y que llama la atenciĂ³n por su capacidad para generar clips hiperrealistas de hasta ocho segundos simplemente a partir de un texto. SegĂºn varios informes de organismos como Media Matters, estos vĂ­deos han sido subidos a TikTok desde decenas de cuentas, llegando a acumular cifras millonarias de visualizaciones.

VĂ­deos plagados de estereotipos racistas y deshumanizaciĂ³n

Ejemplo de vĂ­deo discriminatorio en TikTok

La denuncia de Media Matters pone el foco en contenidos que representan a personas negras como monos, delincuentes o adictos a ciertos alimentos, ademĂ¡s de imĂ¡genes en las que aparecen inmigrantes, judĂ­os y personas de origen asiĂ¡tico expuestos a burlas y comparaciones dañinas. En uno de los clips mĂ¡s virales, por ejemplo, dos policĂ­as blancos dentro de un coche patrulla disparan a una persona negra tras señalarla, en una escena que supera los 14 millones de visitas.

Otros vĂ­deos, generados con Veo 3, muestran a hombres asiĂ¡ticos perseguidos por objetos de aseo o rodeados de imĂ¡genes de gatos y perros en alusiĂ³n a viejos tĂ³picos, y a miembros de la comunidad judĂ­a persiguiendo monedas de oro o sufriendo referencias explĂ­citas al nazismo y los campos de concentraciĂ³n. Estos clips, que en muchos casos llevan la marca de agua visible de la IA de Google, han sido compartidos bajo etiquetas como #Veo3 o #AI, lo que facilita aĂºn mĂ¡s su viralizaciĂ³n.

AdemĂ¡s del contenido explĂ­cito, en los comentarios de las publicaciones se detecta una gran cantidad de mensajes que refuerzan o celebran los estereotipos presentados, lo que multiplica el alcance del discurso discriminatorio y contribuye a normalizarlo.

Fallas en las salvaguardas de IA y desafĂ­os para la moderaciĂ³n

La apariciĂ³n de estos vĂ­deos ha puesto de manifiesto lo sencillo que resulta esquivar los filtros automĂ¡ticos de la inteligencia artificial. Aunque Google promocionĂ³ Veo 3 como una herramienta con salvaguardas avanzadas (incluyendo marcas de agua y bloqueos automĂ¡ticos para ciertas peticiones), los usuarios han conseguido encontrar vacĂ­os en el sistema para generar contenido ofensivo.

Los expertos destacan que la IA no siempre es capaz de captar la sutileza de algunos sĂ­mbolos y referencias racistas, lo que permite que imĂ¡genes que aparentan ser inocentes pasen los filtros tĂ©cnicos, pero encierren un mensaje discriminatorio fĂ¡cilmente reconocido por quienes buscan consumir ese tipo de material. Estos fallos en la comprensiĂ³n contextual hacen que muchas creaciones problemĂ¡ticas se cuelen en las plataformas antes de ser revisadas por moderadores humanos.

SegĂºn portavoces de TikTok, la red social combina algoritmos de detecciĂ³n con moderaciĂ³n manual para combatir el odio y la desinformaciĂ³n, y asegura que ha eliminado decenas de cuentas implicadas y vĂ­deos, en muchos casos antes de que el escĂ¡ndalo llegara a los medios. Sin embargo, la velocidad de propagaciĂ³n hace que el daño ya estĂ© hecho cuando se toman medidas.

Logo de YouTube en telĂ©fono mĂ³vil
ArtĂ­culo relacionado:
El responsable del tiroteo de Nueva Zelanda emitiĂ³ la masacre en directo y aconsejĂ³ seguir al youtuber PewDiePie

TikTok y Google, bajo presiĂ³n para reforzar sus polĂ­ticas

Ambas empresas han reiterado que prohĂ­ben de manera taxativa la difusiĂ³n de discursos de odio o contenido discriminatorio en sus plataformas. TikTok recalca en sus directrices que no se admiten vĂ­deos que deshumanicen a ningĂºn colectivo, mientras que Google asegura que sus servicios de IA incluyen bloqueos automĂ¡ticos cuando se detectan tĂ©rminos o intenciones dañinas.

En la prĂ¡ctica, sin embargo, la moderaciĂ³n masiva resulta insuficiente. Las propias compañías reconocen que el volumen de vĂ­deos que se suben a diario dificulta un control efectivo en tiempo real. AdemĂ¡s, en el caso de la IA, los desarrolladores se enfrentan a la dificultad de codificar todas las variantes de lenguaje y simbolismo que pueden usarse para eludir las restricciones.

A raĂ­z del revuelo, organizaciones civiles, expertos y acadĂ©micos han exigido el fortalecimiento de las salvaguardas en la generaciĂ³n de contenido digital. Entre las propuestas se encuentra mejorar los filtros contextuales de las IAs, establecer marcas de agua visibles e irremovibles y crear herramientas pĂºblicas para identificar el origen de los vĂ­deos.

Twitch off
ArtĂ­culo relacionado:
Twitch pone lĂ­mites: tendrĂ¡s que verificar tu telĂ©fono para chatear

La viralidad y el algoritmo: El odio se amplifica

El efecto de estos vĂ­deos no se limita a TikTok. Tanto en Instagram como en X (antes Twitter) se han detectado casos similares, aunque con menor repercusiĂ³n. La clave estĂ¡ en el propio algoritmo de recomendaciĂ³n, que da visibilidad y premia los contenidos mĂ¡s virales, sean positivos o negativos.

Este fenĂ³meno, segĂºn analistas, genera un cĂ­rculo vicioso: cuanto mĂ¡s extremo es el contenido, mĂ¡s reacciones provoca, lo que a su vez incrementa su alcance y su impacto sobre la opiniĂ³n pĂºblica. La dificultad para distinguir entre vĂ­deos reales y generados por IA complica aĂºn mĂ¡s la tarea, especialmente entre los usuarios mĂ¡s jĂ³venes.

El temor es que la situaciĂ³n se agrave si Google integra Veo 3 con productos como YouTube Shorts, lo que facilitarĂ­a la difusiĂ³n masiva de este tipo de vĂ­deos y pondrĂ­a a prueba, una vez mĂ¡s, la eficacia de los sistemas de moderaciĂ³n.

Este caso en TikTok evidencia la urgente necesidad de replantear las polĂ­ticas y tecnologĂ­as asociadas a la inteligencia artificial y las plataformas de contenidos. Mientras la innovaciĂ³n ofrece nuevas herramientas para la creatividad, tambiĂ©n genera retos Ă©ticos y sociales que no pueden ser ignorados. Sin un marco firme, el riesgo de que la IA se convierta en altavoz para el odio sigue estando mĂ¡s presente que nunca.


SĂ­guenos en Google News