Meta, obligada a pagar 375 millones por fallos de seguridad y daños a menores

  • Un jurado de Nuevo México ha condenado a Meta a pagar 375 millones de dólares por violar la ley estatal de prácticas desleales y comprometer la seguridad de menores.
  • La Fiscalía documentó, mediante operaciones encubiertas, cómo cuentas que simulaban ser de menores recibían rápidamente contactos y contenidos sexuales de adultos.
  • El jurado considera que Meta ocultó información sobre explotación sexual infantil, riesgos para la salud mental y diseño adictivo de sus plataformas.
  • Meta niega haber engañado al público, anuncia que recurrirá y defiende sus inversiones en seguridad y protección de adolescentes.

Sentencia contra Meta por 375 millones de dólares

La tecnológica Meta, matriz de Facebook, Instagram y WhatsApp, se enfrenta a uno de los reveses judiciales más sonados de su historia reciente tras ser condenada en Estados Unidos a abonar 375 millones de dólares en multas civiles. Un jurado de Santa Fe, en el estado de Nuevo México, ha concluido que la compañía engañó sobre la seguridad de sus redes sociales y facilitó un entorno donde la explotación sexual de menores y los daños a su salud mental resultaban mucho más probables.

El caso se ha seguido de cerca desde Europa y España porque encaja en el creciente debate sobre cómo deben responder las grandes plataformas ante los riesgos que afrontan niños y adolescentes en internet. Aunque la sanción se impone en el marco de la legislación estadounidense, abre la puerta a nuevas demandas y regulaciones en otras jurisdicciones que miran con lupa el impacto de las redes sociales sobre los menores.

Un veredicto histórico tras siete semanas de juicio

Juicio contra Meta por seguridad infantil

El procedimiento se inició en 2023 a raíz de una demanda presentada por el fiscal general de Nuevo México, Raúl Torrez, y ha desembocado, tras unas siete semanas de vistas, en un veredicto demoledor para la multinacional. El jurado civil concluyó, en apenas un día de deliberaciones, que Meta vulneró la Ley de Prácticas Desleales del estado al ocultar riesgos graves para niños y adolescentes que usan Facebook, Instagram y WhatsApp.

Los miembros del jurado dieron por probado que la empresa había realizado declaraciones falsas o engañosas sobre la seguridad de sus servicios y que, en su estrategia comercial, priorizó el beneficio económico frente a la protección de los menores. La sentencia fija la cuantía máxima prevista por la normativa local: 5.000 dólares por infracción, hasta sumar los 375 millones.

La fiscalía aspiraba inicialmente a una cifra mucho mayor, que podría haber superado los 2.000 millones de dólares, al estimar el daño causado a más de 200.000 menores que supuestamente accedían de manera mensual a los entornos de Meta. Aun así, el fallo se considera un precedente clave dentro de la oleada de litigios contra redes sociales que está recorriendo Estados Unidos.

El jurado llegó también a la conclusión de que la compañía se aprovechó de la inexperiencia y vulnerabilidad de los niños, incurriendo en prácticas comerciales calificadas como “inadmisibles”. Según la resolución, Meta no solo no informó de forma transparente de los peligros, sino que habría ocultado deliberadamente cómo podían afectar sus productos a la salud mental de los menores y a su exposición a contenidos de carácter sexual.

Operaciones encubiertas: perfiles falsos de menores y contactos sexuales

Operación encubierta en redes sociales de Meta

Buena parte del peso probatorio recayó sobre una investigación encubierta dirigida por la oficina de Raúl Torrez. Los investigadores crearon cuentas de prueba en Facebook e Instagram simulando ser menores de 13 y 14 años, con perfiles que aparentaban pertenecer a adolescentes reales. En muy poco tiempo, estas cuentas comenzaron a recibir solicitudes de amistad, mensajes y contenido sexualmente explícito por parte de adultos.

Según la fiscalía, la facilidad con la que presuntos depredadores pudieron acceder a esos perfiles evidenciaba fallos estructurales en los sistemas de protección de Meta. Lejos de tratarse de incidentes aislados, los resultados fueron presentados como prueba de que las plataformas permitían que usuarios vulnerables fuesen localizados y contactados sin apenas barreras.

El estado de Nuevo México sostuvo que, mientras en público la empresa aseguraba que Facebook, Instagram y WhatsApp eran entornos seguros para adolescentes y niños, de puertas adentro manejaba documentación interna que reconocía problemas de explotación sexual y riesgos para la salud mental vinculados al diseño y funcionamiento de sus servicios.

Entre las críticas destacaba la falta de medidas consideradas casi básicas, como una verificación de edad sólida o controles más estrictos sobre quién puede contactar con perfiles que aparentan ser de menores. La acusación insistió en que Meta conocía la magnitud del problema, pero no actuó con la diligencia necesaria ni informó de forma clara a los usuarios y a sus familias.

De acuerdo con los testimonios escuchados, la situación no se limita al acoso sexual directo: los fiscales mencionaron también casos de sextorsión, acoso continuado y exposición a contenidos violentos o autolesivos, todo ello en cuentas de adolescentes. Varios educadores de escuelas públicas de la zona explicaron al jurado cómo estos fenómenos han irrumpido en las aulas, complicando la convivencia y obligando a los centros a destinar recursos a gestionar crisis relacionadas con las redes sociales.

Daños a la salud mental y diseño adictivo de las plataformas

Impacto de Meta en la salud mental de menores

Otro de los ejes del juicio fue el impacto de las redes sociales de Meta en la salud mental de niños y adolescentes. Los fiscales argumentaron que la compañía diseñó deliberadamente funciones pensadas para maximizar el tiempo de uso y la interacción, pese a las señales de que ese modelo podía agravar problemas como la ansiedad, la depresión o la dismorfia corporal entre los más jóvenes.

Se pusieron sobre la mesa elementos como el desplazamiento infinito del contenido (scroll infinito), la reproducción automática de vídeos o los algoritmos que priorizan publicaciones sensacionalistas o emocionalmente intensas. Según la acusación, estas funciones contribuyen a generar conductas adictivas y a mantener a los menores conectados durante horas, aumentando la exposición a contenidos nocivos, incluidas referencias a autolesiones o suicidio adolescente.

El estado de Nuevo México sostuvo que Meta había sido informada internamente de estos riesgos, tanto por empleados y estudios propios como por especialistas externos en psiquiatría infantil y seguridad online. A pesar de ello, las medidas correctoras habrían sido limitadas o insuficientes, y en ocasiones se habrían primado los indicadores de crecimiento y engagement frente a la reducción del daño potencial.

Durante el juicio, se evocó la figura de Frances Haugen, exempleada de Facebook que filtró miles de documentos internos en 2021. Su testimonio público, aunque anterior a este procedimiento concreto, apuntaba en la misma dirección: la compañía sería plenamente consciente de los efectos negativos de sus productos, especialmente en adolescentes, pero su respuesta habría sido gradual y, para muchos críticos, poco ambiciosa.

Para el jurado, esta combinación de factores —conocimiento interno, diseño adictivo y falta de transparencia— refuerza la idea de que Meta incurrió en una estrategia comercial desleal. No se trataría solo de una plataforma que aloja contenido problemático generado por terceros, sino de un entorno construido para maximizar la interacción a cualquier precio, con un coste directo para el bienestar de los menores.

La respuesta de Meta: apelación y defensa de su historial de seguridad

Meta responde a la condena

La compañía ha reaccionado con rapidez al fallo y ya ha anunciado que presentará un recurso de apelación. En distintos comunicados, portavoces de Meta han insistido en que discrepan respetuosamente de la decisión del jurado y consideran que la sentencia no refleja ni sus esfuerzos ni su grado de transparencia en materia de seguridad.

Según la empresa, su equipo trabaja “arduamente” para mantener seguras a las personas en las plataformas, y reconoce que resulta muy complejo identificar y eliminar por completo a usuarios malintencionados o contenido dañino. De acuerdo con esta versión, Meta invierte de forma continuada recursos técnicos y humanos para detectar abusos, retirar material ilegal y desarrollar herramientas de protección específicas para adolescentes.

Durante los alegatos finales, el abogado de la compañía, Kevin Huff, subrayó que las pruebas demostrarían que Meta invierte en seguridad no solo por responsabilidad social, sino también porque es bueno para el negocio. Defendió que las aplicaciones se diseñan para conectar a personas con amigos y familiares, no para facilitar el contacto entre depredadores e hijos menores, y que la empresa ha sido clara a la hora de reconocer que ningún sistema es perfecto.

Meta argumenta además que cuenta con un marco jurídico de protección bajo la Primera Enmienda —libertad de expresión— y la famosa Sección 230 de la Ley de Decencia en las Comunicaciones, que históricamente ha blindado a las plataformas frente a la responsabilidad directa por el contenido generado por sus usuarios. La fiscalía, sin embargo, replicó que este caso no gira solo en torno a lo que publican terceros, sino a cómo la compañía distribuye y amplifica ese contenido a través de sus algoritmos.

En el plano bursátil, la sentencia se produjo en un momento de cierta volatilidad para el grupo, con retrocesos puntuales en el valor de sus acciones. Aunque la multa es relativamente pequeña si se compara con la capitalización de la empresa —en el entorno del billón y medio de dólares—, los analistas apuntan que lo realmente relevante es el efecto contagio que pueda tener en otros procedimientos en curso.

Más demandas en Estados Unidos y posibles efectos en Europa

El caso de Nuevo México es solo una pieza de un rompecabezas legal mucho más amplio. Más de 40 fiscales generales estatales en Estados Unidos han presentado demandas contra Meta, acusando a la compañía de contribuir a una crisis de salud mental juvenil al diseñar productos adictivos para los jóvenes. Algunas de estas causas reclaman indemnizaciones por decenas de miles de millones de dólares.

En paralelo, un jurado federal en California delibera sobre un proceso similar que afecta tanto a Meta como a YouTube, y que podría ampliar aún más el debate sobre la responsabilidad de las plataformas en la protección de los menores. Esta cascada de litigios se desarrolla mientras distritos escolares y legisladores discuten restricciones al uso de móviles en las aulas y nuevas normas para limitar la exposición de los adolescentes a las redes sociales.

Desde la óptica europea, y particularmente en España, este tipo de sentencias se observa con atención porque encajan con la agenda regulatoria marcada por normas como la Ley de Servicios Digitales (DSA) de la Unión Europea. Esta regulación ya obliga a las grandes plataformas a evaluar y mitigar riesgos sistémicos, incluidos los relacionados con la seguridad infantil y la salud mental, y refuerza la supervisión por parte de las autoridades nacionales.

Aunque la condena de Nuevo México no tiene efecto directo sobre los usuarios europeos, sí añade argumentos a quienes reclaman controles más estrictos sobre algoritmos, verificación de edad y diseño de interfaces. En España, la preocupación por el uso intensivo de redes sociales entre menores y por el aumento de casos de acoso o sextorsión digital ha llevado a debates parlamentarios, planes escolares y campañas de concienciación, que podrían endurecerse si se consolidan precedentes como el estadounidense.

El fallo del jurado de Santa Fe sitúa a Meta en el centro de una tormenta legal y política que trasciende las fronteras de Estados Unidos. Más allá de la cifra de 375 millones de dólares, la resolución cuestiona de raíz el modelo con el que las grandes redes sociales gestionan la seguridad infantil, la salud mental y la transparencia hacia sus usuarios. A la espera de la segunda fase del proceso en mayo —en la que un juez decidirá si la compañía debe aplicar cambios profundos en sus plataformas—, el caso se perfila como un punto de inflexión que puede influir en cómo se regulan y utilizan estas herramientas tanto al otro lado del Atlántico como en Europa y España.


Síguenos en Google News