Polémica por las normas internas de los chatbots de Meta

  • Filtración de un manual de estándares de riesgo de contenido para Meta AI y sus chatbots en Facebook, Instagram y WhatsApp.
  • Meta confirma la autenticidad pero afirma que las anotaciones problemáticas ya fueron retiradas.
  • Reacciones de legisladores y grupos de protección infantil, con peticiones de investigación y transparencia.
  • El texto también abordaba desinformación, discurso denigrante y violencia, con límites y excepciones polémicas.

Chatbots de Meta e IA

Meta vuelve al centro del debate tras la filtración de un documento interno con reglas de comportamiento para sus chatbots de inteligencia artificial, un texto que incluía supuestos en los que se toleraban conversaciones de tono romántico o sensual con menores, además de excepciones sobre desinformación, discurso denigrante y violencia.

La compañía ha reconocido la autenticidad del documento y sostiene que las notas controvertidas ya se han retirado, mientras aumentan las críticas de entidades de protección de la infancia, expertos en regulación y responsables políticos que reclaman claridad y límites más firmes.

Qué decía el documento y cómo encaja en los productos de Meta

Estándares de contenido para chatbots de Meta

El texto, titulado “GenAI: Content Risk Standards”, superaría las 200 páginas y fijaría pautas para el asistente generativo de Meta y para los chatbots integrados en Facebook, Instagram y WhatsApp, con el visto bueno de equipos legales, de políticas públicas, ingeniería y la oficina de ética.

Entre los ejemplos señalados figuraban interacciones afectivas con menores, con límites explícitos para frenar descripciones sexuales, pero permitiendo en ciertos casos un tono romántico o sugestivo durante roleplays, algo que ha encendido todas las alarmas por el riesgo que entraña.

El documento contemplaba también la creación de contenidos falsos siempre que se indicase de forma clara que eran inveraces, incluso cuando se tratase de afirmaciones sobre figuras públicas, una práctica que muchos expertos consideran especialmente delicada.

Otra de las controversias apuntaba a un “carve-out” que abría la puerta a respuestas que menospreciaran a personas por características protegidas, pese a que las políticas generales prohíben el discurso de odio, un equilibrio difícil de justificar en la práctica.

En el terreno visual, las normas vetaban desnudos de celebridades, pero proponían alternativas creativas ante solicitudes sexualizadas y permitían mostrar escenas de peleas o amenazas sin llegar a imágenes con sangre o muerte, marcando líneas rojas variables según el contexto.

Meta AI en WhatsApp
Artículo relacionado:
Cómo minimizar la presencia de Meta AI en WhatsApp: privacidad, riesgos y opciones

Respuesta de Meta y creciente presión pública

Reacciones públicas a los chatbots de Meta

Meta asegura que sus políticas no permiten conductas provocativas con menores y que las anotaciones que sugerían lo contrario eran erróneas; fueron eliminadas tras una revisión interna, indicó su portavoz, que admitió además problemas de aplicación en algunos casos.

Organizaciones de protección infantil y académicos piden a la empresa que publique la versión actualizada de las normas para poder evaluar qué límites rigen hoy las interacciones con usuarios jóvenes y qué medidas reales existen para minimizar riesgos.

La filtración ha desencadenado reacciones políticas: senadores en EE UU han solicitado investigar si los chatbots de Meta facilitan explotación o engaño de menores y si la compañía ha comunicado de forma precisa sus salvaguardas, mientras otros cuestionan el amparo legal de estas herramientas frente a posibles daños.

El caso de un jubilado que murió tras un accidente cuando intentaba reunirse con un “contacto” que en realidad era un chatbot con tono seductor ha intensificado el escrutinio sobre los asistentes conversacionales como “compañeros” emocionales y los límites de seguridad que deben respetar.

El clima de desconfianza se alimenta de antecedentes: investigaciones periodísticas documentaron diálogos subidos de tono con adolescentes empleando voces de famosos, y estudios citados por medios indican que una mayoría de jóvenes ya interactúa con bots, con el riesgo de vínculos emocionales desmedidos y aislamiento social.

En paralelo, Meta acelera su inversión en infraestructura de IA y explora funciones proactivas para chatbots personalizados que puedan retomar conversaciones, un enfoque que, sin garantías robustas, preocupa por su potencial de fijar hábitos y aumentar la dependencia en públicos vulnerables.

Más allá de lo urgente, subyace una cuestión de fondo: dónde trazar las fronteras entre compañía tecnológica y “compañero” digital, y qué controles externos deben imponerse para que la ambición por liderar la IA no pase por alto la seguridad infantil ni la integridad informativa.

Esta encrucijada marca el futuro de los chatbots de Meta: la filtración ha dejado al descubierto reglas confusas, la empresa promete rectificaciones y la sociedad civil, la academia y los reguladores exigen luz y taquígrafos antes de que las conversaciones con la máquina formen parte del día a día.


Síguenos en Google News