Meta bajo presión por chatbots que imitaban a Taylor Swift sin permiso

  • Reuters destapa que en Meta circularon chatbots que imitaban a Taylor Swift y otras celebridades sin autorización.
  • Un empleado de la compaƱƭa creó al menos tres bots, dos de ellos basados en la cantante, con millones de interacciones.
  • Meta eliminó una docena de bots y anunció lĆ­mites para conversaciones con menores y contenidos sexualizados.
  • Sindicato y expertos legales alertan de riesgos de seguridad y posibles violaciones del derecho de publicidad.

Chatbots de Meta y Taylor Swift

La oleada de chatbots que se hacían pasar por Taylor Swift ha vuelto a situar a Meta en el centro de la polémica. Según una investigación de Reuters, en Facebook, Instagram y WhatsApp circularon avatares que interactuaban con los usuarios como si fuesen la artista real y otras celebridades, sin el permiso de las personas afectadas.

El hallazgo revela fallos en la supervisión y en el cumplimiento de las políticas internas: algunos bots fueron creados por usuarios con las herramientas públicas de Meta, pero al menos tres procedían de una empleada de la compañía, incluidos dos basados en Taylor Swift, que acumularon millones de interacciones antes de ser retirados.

QuƩ ha pasado con los chatbots de Taylor Swift

Imitaciones de celebridades en Meta

Durante varias semanas de pruebas, Reuters observó que los avatares de Taylor Swift y de otras figuras públicas insistían en que eran la persona real, coqueteaban abiertamente y llegaban a proponer encuentros presenciales con alusiones a lugares concretos, como la ciudad de Nashville o el autobús de gira.

Cuando se les pedían imÔgenes, algunos bots generaban fotografías fotorrealistas con poses sugerentes, en bañeras o con lencería. En casos especialmente sensibles, se permitió crear y compartir avatares de celebridades menores de edad; por ejemplo, al solicitar una instantÔnea de un joven actor en la playa, el sistema respondió con una imagen sin camiseta y un comentario insinuante.

El etiquetado de ā€œparodiaā€ se aplicó de forma desigual y la moderación de cuentas no fue uniforme. Mientras que algunos perfiles incluĆ­an la aclaración, otros no, lo que intensificó la sensación de suplantación directa de identidad y propició conversaciones de tono sexual o seductor que alcanzaron una gran difusión, superando, segĆŗn los datos revisados, los diez millones de interacciones en conjunto.

La reacción de Meta y los cambios aplicados

PolƩmica chatbots de Meta

Andy Stone, portavoz de la compañía, reconoció que los sistemas no deberían haber generado contenido íntimo o sexualizado de figuras públicas ni, bajo ningún concepto, imÔgenes de menores. Atribuyó el incidente a deficiencias en la aplicación de las normas internas, que en teoría prohíben este tipo de material.

Meta retiró aproximadamente una docena de bots antes de la publicación del informe y anunció barreras adicionales: los asistentes no podrÔn mantener conversaciones romÔnticas con adolescentes ni abordar temas como autolesiones y suicidio o trastornos alimentarios. La empresa califica estos ajustes como medidas inmediatas mientras define una política permanente.

Respecto a los bots creados por la empleada, la compaƱƭa afirma que formaban parte de pruebas de producto; sin embargo, Reuters constató que alcanzaron una audiencia masiva. El uso del rótulo ā€œparodiaā€ se presentó como requisito para permitir personajes inspirados en personas reales, aunque no siempre se aplicó correctamente.

Riesgos, presión legal y respuesta del mercado

Reacciones a bots de Taylor Swift en Meta

El sindicato SAG-AFTRA advirtió de riesgos de seguridad para las celebridades y su entorno cuando usuarios establecen vínculos emocionales con compañeros digitales que parecen reales. En paralelo, expertos en derecho, como el profesor Mark Lemley (Stanford), apuntan a posibles vulneraciones del derecho de publicidad al aprovechar nombre e imagen con fines que pueden considerarse comerciales.

La presión regulatoria ha aumentado: el Senado de EE. UU. y decenas de fiscales generales han solicitado explicaciones sobre las directrices que permitieron interacciones romÔnticas con menores, ahora en revisión, y sobre los mecanismos de control para frenar la difusión de contenido sexualizado.

El impacto reputacional tuvo reflejo en los mercados: tras conocerse el caso, las acciones de Meta llegaron a caer mÔs de un 12% en negociación fuera de horario, según diversos medios. AdemÔs, se han documentado episodios graves asociados a malas interpretaciones de estos bots, incluido el viaje de un hombre mayor para conocer a un avatar inspirado en una influencer, que terminó con un accidente fatal.

El fenómeno no es exclusivo del ecosistema de Meta, pues competidores del sector también han sido señalados por generar imÔgenes de celebridades de carÔcter sugerente; aun así, el alcance en las plataformas de la empresa de Mark Zuckerberg, con su enorme base de usuarios, marca una diferencia cualitativa en exposición y riesgo.

Todo apunta a que Meta deberÔ acelerar nuevos protocolos de verificación, etiquetado y moderación para frenar la suplantación y las interacciones inadecuadas. La investigación periodística, las posibles acciones legales y la presión institucional han puesto el listón alto: de cómo se implementen estos cambios dependerÔ que casos como el de los bots de Taylor Swift no vuelvan a repetirse.

Meta chatbots AI
ArtĆ­culo relacionado:
PolƩmica por las normas internas de los chatbots de Meta

SĆ­guenos en Google News