En las Ăºltimas semanas se ha desatado una polĂ©mica en torno a TikTok por la propagaciĂ³n masiva de vĂdeos racistas generados por inteligencia artificial. Estas creaciones han conseguido una gran difusiĂ³n y han encendido las alarmas sobre los riesgos de las nuevas herramientas de IA, poniendo en entredicho la capacidad de las plataformas y de los propios desarrolladores para frenar los discursos de odio que viajan por la red a toda velocidad.
La controversia se centra en la nueva IA de Google, Veo 3, presentada recientemente y que llama la atenciĂ³n por su capacidad para generar clips hiperrealistas de hasta ocho segundos simplemente a partir de un texto. SegĂºn varios informes de organismos como Media Matters, estos vĂdeos han sido subidos a TikTok desde decenas de cuentas, llegando a acumular cifras millonarias de visualizaciones.
VĂdeos plagados de estereotipos racistas y deshumanizaciĂ³n

La denuncia de Media Matters pone el foco en contenidos que representan a personas negras como monos, delincuentes o adictos a ciertos alimentos, ademĂ¡s de imĂ¡genes en las que aparecen inmigrantes, judĂos y personas de origen asiĂ¡tico expuestos a burlas y comparaciones dañinas. En uno de los clips mĂ¡s virales, por ejemplo, dos policĂas blancos dentro de un coche patrulla disparan a una persona negra tras señalarla, en una escena que supera los 14 millones de visitas.
Otros vĂdeos, generados con Veo 3, muestran a hombres asiĂ¡ticos perseguidos por objetos de aseo o rodeados de imĂ¡genes de gatos y perros en alusiĂ³n a viejos tĂ³picos, y a miembros de la comunidad judĂa persiguiendo monedas de oro o sufriendo referencias explĂcitas al nazismo y los campos de concentraciĂ³n. Estos clips, que en muchos casos llevan la marca de agua visible de la IA de Google, han sido compartidos bajo etiquetas como #Veo3 o #AI, lo que facilita aĂºn mĂ¡s su viralizaciĂ³n.
AdemĂ¡s del contenido explĂcito, en los comentarios de las publicaciones se detecta una gran cantidad de mensajes que refuerzan o celebran los estereotipos presentados, lo que multiplica el alcance del discurso discriminatorio y contribuye a normalizarlo.
Fallas en las salvaguardas de IA y desafĂos para la moderaciĂ³n
La apariciĂ³n de estos vĂdeos ha puesto de manifiesto lo sencillo que resulta esquivar los filtros automĂ¡ticos de la inteligencia artificial. Aunque Google promocionĂ³ Veo 3 como una herramienta con salvaguardas avanzadas (incluyendo marcas de agua y bloqueos automĂ¡ticos para ciertas peticiones), los usuarios han conseguido encontrar vacĂos en el sistema para generar contenido ofensivo.
Los expertos destacan que la IA no siempre es capaz de captar la sutileza de algunos sĂmbolos y referencias racistas, lo que permite que imĂ¡genes que aparentan ser inocentes pasen los filtros tĂ©cnicos, pero encierren un mensaje discriminatorio fĂ¡cilmente reconocido por quienes buscan consumir ese tipo de material. Estos fallos en la comprensiĂ³n contextual hacen que muchas creaciones problemĂ¡ticas se cuelen en las plataformas antes de ser revisadas por moderadores humanos.
SegĂºn portavoces de TikTok, la red social combina algoritmos de detecciĂ³n con moderaciĂ³n manual para combatir el odio y la desinformaciĂ³n, y asegura que ha eliminado decenas de cuentas implicadas y vĂdeos, en muchos casos antes de que el escĂ¡ndalo llegara a los medios. Sin embargo, la velocidad de propagaciĂ³n hace que el daño ya estĂ© hecho cuando se toman medidas.
TikTok y Google, bajo presiĂ³n para reforzar sus polĂticas
Ambas empresas han reiterado que prohĂben de manera taxativa la difusiĂ³n de discursos de odio o contenido discriminatorio en sus plataformas. TikTok recalca en sus directrices que no se admiten vĂdeos que deshumanicen a ningĂºn colectivo, mientras que Google asegura que sus servicios de IA incluyen bloqueos automĂ¡ticos cuando se detectan tĂ©rminos o intenciones dañinas.
En la prĂ¡ctica, sin embargo, la moderaciĂ³n masiva resulta insuficiente. Las propias compañĂas reconocen que el volumen de vĂdeos que se suben a diario dificulta un control efectivo en tiempo real. AdemĂ¡s, en el caso de la IA, los desarrolladores se enfrentan a la dificultad de codificar todas las variantes de lenguaje y simbolismo que pueden usarse para eludir las restricciones.
A raĂz del revuelo, organizaciones civiles, expertos y acadĂ©micos han exigido el fortalecimiento de las salvaguardas en la generaciĂ³n de contenido digital. Entre las propuestas se encuentra mejorar los filtros contextuales de las IAs, establecer marcas de agua visibles e irremovibles y crear herramientas pĂºblicas para identificar el origen de los vĂdeos.
La viralidad y el algoritmo: El odio se amplifica
El efecto de estos vĂdeos no se limita a TikTok. Tanto en Instagram como en X (antes Twitter) se han detectado casos similares, aunque con menor repercusiĂ³n. La clave estĂ¡ en el propio algoritmo de recomendaciĂ³n, que da visibilidad y premia los contenidos mĂ¡s virales, sean positivos o negativos.
Este fenĂ³meno, segĂºn analistas, genera un cĂrculo vicioso: cuanto mĂ¡s extremo es el contenido, mĂ¡s reacciones provoca, lo que a su vez incrementa su alcance y su impacto sobre la opiniĂ³n pĂºblica. La dificultad para distinguir entre vĂdeos reales y generados por IA complica aĂºn mĂ¡s la tarea, especialmente entre los usuarios mĂ¡s jĂ³venes.
El temor es que la situaciĂ³n se agrave si Google integra Veo 3 con productos como YouTube Shorts, lo que facilitarĂa la difusiĂ³n masiva de este tipo de vĂdeos y pondrĂa a prueba, una vez mĂ¡s, la eficacia de los sistemas de moderaciĂ³n.
Este caso en TikTok evidencia la urgente necesidad de replantear las polĂticas y tecnologĂas asociadas a la inteligencia artificial y las plataformas de contenidos. Mientras la innovaciĂ³n ofrece nuevas herramientas para la creatividad, tambiĂ©n genera retos Ă©ticos y sociales que no pueden ser ignorados. Sin un marco firme, el riesgo de que la IA se convierta en altavoz para el odio sigue estando mĂ¡s presente que nunca.