La oleada de chatbots que se hacĆan pasar por Taylor Swift ha vuelto a situar a Meta en el centro de la polĆ©mica. SegĆŗn una investigación de Reuters, en Facebook, Instagram y WhatsApp circularon avatares que interactuaban con los usuarios como si fuesen la artista real y otras celebridades, sin el permiso de las personas afectadas.
El hallazgo revela fallos en la supervisión y en el cumplimiento de las polĆticas internas: algunos bots fueron creados por usuarios con las herramientas pĆŗblicas de Meta, pero al menos tres procedĆan de una empleada de la compaƱĆa, incluidos dos basados en Taylor Swift, que acumularon millones de interacciones antes de ser retirados.
QuƩ ha pasado con los chatbots de Taylor Swift

Durante varias semanas de pruebas, Reuters observó que los avatares de Taylor Swift y de otras figuras pĆŗblicas insistĆan en que eran la persona real, coqueteaban abiertamente y llegaban a proponer encuentros presenciales con alusiones a lugares concretos, como la ciudad de Nashville o el autobĆŗs de gira.
Cuando se les pedĆan imĆ”genes, algunos bots generaban fotografĆas fotorrealistas con poses sugerentes, en baƱeras o con lencerĆa. En casos especialmente sensibles, se permitió crear y compartir avatares de celebridades menores de edad; por ejemplo, al solicitar una instantĆ”nea de un joven actor en la playa, el sistema respondió con una imagen sin camiseta y un comentario insinuante.
El etiquetado de āparodiaā se aplicó de forma desigual y la moderación de cuentas no fue uniforme. Mientras que algunos perfiles incluĆan la aclaración, otros no, lo que intensificó la sensación de suplantación directa de identidad y propició conversaciones de tono sexual o seductor que alcanzaron una gran difusión, superando, segĆŗn los datos revisados, los diez millones de interacciones en conjunto.
La reacción de Meta y los cambios aplicados

Andy Stone, portavoz de la compaƱĆa, reconoció que los sistemas no deberĆan haber generado contenido Ćntimo o sexualizado de figuras pĆŗblicas ni, bajo ningĆŗn concepto, imĆ”genes de menores. Atribuyó el incidente a deficiencias en la aplicación de las normas internas, que en teorĆa prohĆben este tipo de material.
Meta retiró aproximadamente una docena de bots antes de la publicación del informe y anunció barreras adicionales: los asistentes no podrĆ”n mantener conversaciones romĆ”nticas con adolescentes ni abordar temas como autolesiones y suicidio o trastornos alimentarios. La empresa califica estos ajustes como medidas inmediatas mientras define una polĆtica permanente.
Respecto a los bots creados por la empleada, la compaƱĆa afirma que formaban parte de pruebas de producto; sin embargo, Reuters constató que alcanzaron una audiencia masiva. El uso del rótulo āparodiaā se presentó como requisito para permitir personajes inspirados en personas reales, aunque no siempre se aplicó correctamente.
Riesgos, presión legal y respuesta del mercado

El sindicato SAG-AFTRA advirtió de riesgos de seguridad para las celebridades y su entorno cuando usuarios establecen vĆnculos emocionales con compaƱeros digitales que parecen reales. En paralelo, expertos en derecho, como el profesor Mark Lemley (Stanford), apuntan a posibles vulneraciones del derecho de publicidad al aprovechar nombre e imagen con fines que pueden considerarse comerciales.
La presión regulatoria ha aumentado: el Senado de EE. UU. y decenas de fiscales generales han solicitado explicaciones sobre las directrices que permitieron interacciones romÔnticas con menores, ahora en revisión, y sobre los mecanismos de control para frenar la difusión de contenido sexualizado.
El impacto reputacional tuvo reflejo en los mercados: tras conocerse el caso, las acciones de Meta llegaron a caer mÔs de un 12% en negociación fuera de horario, según diversos medios. AdemÔs, se han documentado episodios graves asociados a malas interpretaciones de estos bots, incluido el viaje de un hombre mayor para conocer a un avatar inspirado en una influencer, que terminó con un accidente fatal.
El fenómeno no es exclusivo del ecosistema de Meta, pues competidores del sector tambiĆ©n han sido seƱalados por generar imĆ”genes de celebridades de carĆ”cter sugerente; aun asĆ, el alcance en las plataformas de la empresa de Mark Zuckerberg, con su enorme base de usuarios, marca una diferencia cualitativa en exposición y riesgo.
Todo apunta a que Meta deberĆ” acelerar nuevos protocolos de verificación, etiquetado y moderación para frenar la suplantación y las interacciones inadecuadas. La investigación periodĆstica, las posibles acciones legales y la presión institucional han puesto el listón alto: de cómo se implementen estos cambios dependerĆ” que casos como el de los bots de Taylor Swift no vuelvan a repetirse.