
Documentos aportados en un pleito en Estados Unidos sostienen que Meta detuvo una investigación interna tras hallar indicios ‘causales’ de perjuicio para la salud mental asociados a sus redes. El foco recae en Facebook y, según algunas versiones del plan, también en Instagram.
De acuerdo con esos archivos, la compañía habría cerrado el llamado ‘Proyecto Mercury’ en 2020, pese a que los resultados preliminares apuntaban a menos depresión, ansiedad, soledad y comparación social entre quienes dejaron de usar la plataforma durante una semana. Meta, por su parte, replica que el estudio era metodológicamente defectuoso.
Qué aportan los documentos del pleito
Los escritos, presentados por varios distritos escolares que demandan a distintas plataformas, señalan que Meta identificó una relación causal entre el uso de sus productos y efectos negativos en el bienestar psicológico, y aun así decidió no publicar los hallazgos.
En pruebas internas, participantes que desactivaron Facebook durante siete días reportaron reducciones en indicadores de malestar como la comparación social y sentimientos de depresión y ansiedad. Dentro de la empresa, hubo empleados que defendieron la validez del estudio y alertaron sobre el riesgo de guardar silencio.
Proyecto Mercury: diseño y debate metodológico
El trabajo, realizado en 2020 con la firma de sondeos Nielsen, evaluó el impacto de ‘apagar’ Facebook (y en algunos diseños también Instagram) durante un periodo corto. Según la documentación, la empresa argumentó después que el entorno mediático pudo sesgar las respuestas, y pausó la investigación.
Sin embargo, mensajes internos citados en la demanda apuntan a que parte del personal consideraba los resultados sólidos y comparó el silencio con precedentes de industrias que ocultaron riesgos conocidos. Esta tensión metodológica es ahora uno de los ejes del litigio.
La posición de Meta
El portavoz Andy Stone afirmó que el estudio se interrumpió por defectos de método y defendió que la compañía lleva años introduciendo salvaguardas para adolescentes y familias. Según Meta, sus herramientas de seguridad son «ampliamente eficaces» y se revisan de forma continua.
Respecto a acusaciones más graves recogidas en el pleito —incluida la supuesta tolerancia a conductas criminales y la ineficacia deliberada de controles juveniles—, la empresa sostiene que el escrito tergiversa su trabajo y selecciona citas, y que su política es eliminar con rapidez cuentas implicadas en abusos cuando se señalan.
La demanda de los distritos escolares y otras plataformas
El caso está liderado por un bufete que actúa en nombre de distritos escolares de todo el país y también menciona a Google, TikTok y Snapchat, aunque la acusación más pormenorizada recae sobre Meta. Se sostiene que las compañías ocultaron a usuarios, familias y docentes riesgos que reconocían internamente.
- Se afirma que Meta diseñó funciones juveniles de modo que fueran poco usadas o ineficaces, bloqueando pruebas de cambios que pudieran frenar el crecimiento.
- Se alega que, en el pasado, el umbral para expulsar a usuarios implicados en tráfico con fines sexuales era excesivamente alto, extremo que la empresa rechaza.
- Los documentos citados indican que optimizar la plataforma para aumentar la participación adolescente podía exponer a más contenidos perjudiciales.
- Se acusa a Meta de haber frenado iniciativas contra depredadores de menores por preocupaciones de crecimiento.
- También se recoge que algunas plataformas habrían intentado influir en organizaciones centradas en la infancia mediante patrocinios.
Los materiales internos a los que aluden los demandantes no son públicos, y Meta ha solicitado limitar su difusión por su alcance. La vista está fijada para el 26 de enero en el Tribunal de Distrito del Norte de California, donde se decidirán los siguientes pasos procesales.
Impacto potencial en Europa y España
Si se corroboran patrones que apunten a riesgos para menores y salud mental, el caso puede resonar en la Unión Europea a la luz de la Ley de Servicios Digitales (DSA), que exige a las grandes plataformas evaluar y mitigar riesgos sistémicos, reforzar la transparencia algorítmica y facilitar acceso a datos para investigación.
En España, el debate sobre edad de acceso, verificación y diseño de plataformas más seguro para adolescentes ya está sobre la mesa entre familias, centros educativos y autoridades. Un fallo o acuerdo relevante en EE. UU. podría acelerar revisiones y buenas prácticas en nuestro entorno regulatorio.
Qué viene ahora
El tribunal deberá pronunciarse sobre la petición de Meta para acotar la publicación de documentos y, en función de lo que ocurra en la vista, podrían aflorar más detalles sobre el diseño del Proyecto Mercury y la toma de decisiones interna.
Para usuarios y responsables públicos, el foco estará en si la evidencia interna respalda una relación causal y en qué compromisos verificables asumirán las plataformas para reducir daños en menores sin sacrificar la seguridad ni la privacidad.
Más allá del litigio, lo que está en juego es si una gran tecnológica priorizó el crecimiento frente a advertencias internas sobre bienestar y seguridad, y cómo deben supervisarse estas decisiones en jurisdicciones como la UE, donde el cumplimiento de la DSA y la protección de los menores marcan el paso.