La prohibición australiana de redes sociales para menores de 16 y el espejo que mira Europa y España

  • Australia veta el uso de las principales redes sociales a menores de 16 aƱos y traslada la responsabilidad a las plataformas con fuertes multas.
  • La verificación de edad se apoya en IA, documentos oficiales y otros mĆ©todos que levantan dudas tĆ©cnicas, legales y de privacidad.
  • Expertos alertan de que los adolescentes se moverĆ”n a servicios no regulados y que el impacto real en su bienestar tardarĆ” aƱos en medirse.
  • La UE y EspaƱa preparan normas propias inspiradas en el modelo australiano, con Ć©nfasis en verificación de edad y control parental.

Prohibición de redes sociales para menores

Australia acaba de estrenar la primera gran prohibición mundial del uso de redes sociales para menores de 16 años, un experimento regulatorio que estÔ siendo analizado al milímetro desde Europa y, en particular, desde España. La medida, que afecta a millones de adolescentes, pretende poner coto a los riesgos asociados al uso intensivo de estas plataformas, desde el ciberacoso hasta los efectos sobre la salud mental.

Al mismo tiempo, esta decisión abre un debate incómodo pero necesario: hasta dónde deben llegar los gobiernos para proteger a los menores en internet sin vulnerar derechos fundamentales como la libertad de expresión o la privacidad. Lo que ocurra en Australia en los próximos meses servirĆ” de referencia —para bien o para mal— a los reguladores europeos que ya trabajan en normativas similares.

Qué implica la prohibición australiana para los menores de 16 años

Desde el 10 de diciembre, los niños y adolescentes australianos menores de 16 años no pueden tener cuenta en una lista concreta de plataformas: Facebook, Instagram, Threads, TikTok, Snapchat, YouTube, X (antigua Twitter), Reddit, Twitch y Kick. Las empresas estÔn obligadas a eliminar las cuentas de usuarios por debajo de esa edad y a impedir que se creen nuevas, so pena de multas que pueden llegar a 49,5 millones de dólares australianos (en torno a 30 millones de euros) en los casos mÔs graves.

La norma desplaza el foco del menor al proveedor: no se sanciona a los jóvenes ni a sus padres, sino a las compaƱƭas que no adopten ā€œmedidas razonablesā€ para comprobar la edad de quienes usan sus servicios. De momento, quedan fuera de esta lista negra servicios como Roblox, Pinterest, WhatsApp, Google Classroom, YouTube Kids o LinkedIn, aunque el Gobierno ha dejado claro que el catĆ”logo de plataformas afectadas es dinĆ”mico y podrĆ” ampliarse si detectan que los adolescentes migran masivamente a otros entornos, como ocurrió en Dinamarca.

En la prĆ”ctica, muchas redes ya habĆ­an empezado a mover ficha dĆ­as antes de la entrada en vigor de la ley: Facebook e Instagram iniciaron el cierre o bloqueo progresivo de cuentas identificadas como pertenecientes a menores, y otras plataformas activaron procesos de verificación de edad mĆ”s visibles. En algunos casos, las cuentas de chicos y chicas menores de 16 no se borran del todo, sino que se ā€œcongelanā€: se permite descargar o archivar el contenido y recuperar el perfil cuando se alcance la edad mĆ­nima.

Para el primer ministro Anthony Albanese, se trata de una reforma ā€œhistóricaā€, que ha descrito como ā€œuno de los mayores cambios sociales y culturales de las Ćŗltimas dĆ©cadasā€. El objetivo declarado es reducir la presión digital sobre los jóvenes, limitar la exposición precoz a contenidos violentos, sexuales o misóginos y cortar, en la medida de lo posible, la dependencia de algoritmos diseƱados para maximizar el tiempo de pantalla.

Verificación de edad: IA, documentos y un campo de pruebas global

El gran punto de fricción es cómo saber quién tiene realmente menos de 16 años. Las redes sociales implicadas han apostado por una combinación de documentos oficiales, datos financieros y estimación de edad mediante inteligencia artificial. La idea es cruzar señales para detectar a los usuarios que se saltan las normas de edad introduciendo un año de nacimiento falso al registrarse.

El Gobierno australiano financió un ensayo a gran escala para probar estos mĆ©todos: se analizaron mĆ”s de 60 herramientas de verificación en decenas de miles de pruebas de reconocimiento facial y otros sistemas. Las conclusiones fueron ambiguas: todos los mĆ©todos son ā€œtĆ©cnicamente posiblesā€, pero ninguno es infalible. La verificación con DNI o pasaporte resultó la mĆ”s precisa, aunque plantea un problema evidente de confianza y privacidad para usuarios que tienen que entregar copias de documentos muy sensibles a empresas en las que, segĆŗn las encuestas, la mayorĆ­a de australianos no termina de confiar.

Los sistemas de estimación de edad por rasgos faciales y las técnicas de inferencia basadas en la actividad en línea mostraron limitaciones importantes justo en el rango clave: adolescentes de 14, 15, 16 o 17 años. El margen de error de dos o tres años es suficiente para bloquear a usuarios legítimos o dejar pasar a quienes, en teoría, deberían quedar fuera. AdemÔs, varias pruebas detectaron peores resultados con chicas y con rostros no caucÔsicos, lo que abre otro melón: el sesgo algorítmico.

Aunque los promotores de la medida insisten en que la verificación de edad puede hacerse de forma ā€œprivada, robusta y eficazā€ si se combinan varias capas de control, no han desaparecido las dudas sobre el coste en tĆ©rminos de privacidad. Para millones de personas, el peaje para seguir usando redes sociales es aceptar que una IA escanee su cara o subir documentación oficial a una gran plataforma tecnológica.

Los temores no son teóricos: cuando YouTube anunció en otros países que utilizaría IA para adivinar la edad de los usuarios, muchos adultos protestaron ante la posibilidad de ser identificados erróneamente como menores y verse obligados a entregar un escaneo facial o una copia del carnet para no perder funciones de la plataforma. El debate se ha trasladado ahora a Australia, donde los críticos cuestionan que se normalice este tipo de chequeos biométricos para cualquier interacción cotidiana en la red.

Los adolescentes ya buscan atajos: VPN, plataformas grises y creatividad

Una de las primeras escenas que ha circulado en los medios australianos ilustra bien el reto prÔctico de la ley. Isobel, de 13 años, recibió un aviso de Snapchat: o demostraba que tenía al menos 16 años o su cuenta quedaría bloqueada. Tardó menos de cinco minutos en sortear el filtro. Bastó con poner la cara de su madre delante de la cÔmara para que el sistema diera por buena la verificación. Otros chicos comentan que han usado fotos de famosos o personajes de videojuegos con el mismo resultado.

Las anĆ©cdotas se multiplican: una mĆ”scara de Halloween barata sirvió en un experimento universitario para engaƱar la tecnologĆ­a de evaluación facial; en el Reino Unido, adolescentes ya probaron a usar rostros generados o de avatares para superar controles similares; y las redes se llenan de tutoriales improvisados sobre cómo esquivar las restricciones. El propio regulador australiano reconoce que ā€œva a haber muchos erroresā€ en los primeros compases de la implantación y que se trata de una ā€œbatalla constanteā€ por ir cerrando grietas.

MÔs allÔ de los trucos con cÔmaras, los expertos dan por hecho que aumentarÔ el uso de VPN y servicios que ofuscan la ubicación real del usuario. Algo parecido ya ocurrió en otros países cuando se endurecieron los controles de edad para acceder a webs de contenido adulto: durante semanas, las descargas de aplicaciones VPN se dispararon y luego se estabilizaron en cifras mÔs altas que antes de la regulación.

Otra vĆ­a es el desplazamiento hacia plataformas no incluidas en la prohibición. Aplicaciones de estilo de vida, servicios de vĆ­deo ā€œalternativosā€ o apps de retransmisión en directo han escalado en los rankings de descargas australianos desde principios de diciembre. TambiĆ©n se observa un repunte en el uso de apps de mensajerĆ­a como WhatsApp, Telegram o Signal, que de momento no estĆ”n sometidas a las mismas restricciones pese a que en la prĆ”ctica permiten conversaciones, intercambio de contenidos y creación de grupos masivos entre adolescentes.

Varios especialistas apuntan igualmente a un probable desvío de los jóvenes hacia plataformas de videojuegos y comunidades online como Discord o Roblox. No forman parte de la lista oficial de redes sociales restringidas, pero ofrecen chat de texto y voz, difusión de enlaces y exposición a contenidos delicados. Si muchos adolescentes abandonan Instagram o TikTok para refugiarse en estos entornos menos controlados, el efecto neto de la prohibición podría ser muy distinto del esperado.

Padres a favor, expertos divididos y gigantes tecnológicos a la defensiva

En el plano social, la norma nace con un respaldo notable. Encuestas recientes sitúan el apoyo ciudadano en torno al 75-80% de la población australiana, con padres y madres muy movilizados tras casos de ciberacoso extremo y suicidios de menores. Algunos progenitores han relatado públicamente cómo el acoso en línea terminó empujando a sus hijos a un desenlace trÔgico, convirtiéndose en la cara visible de una campaña que pedía endurecer las reglas del juego digital.

Este clima ha pesado mÔs que las reservas de parte de la comunidad experta. Investigadores en seguridad digital y antiguos responsables de protección de la infancia advirtieron de que un veto general por edad podía ser una herramienta demasiado burda: temen que aísle a adolescentes vulnerables que encuentran apoyo en comunidades online, que genere una falsa sensación de seguridad entre las familias y que desplace los problemas a espacios menos regulados sin resolverlos.

Los grupos de derechos civiles y varias organizaciones de defensa de la privacidad han ido un paso mÔs allÔ. Alegan que la ley tensiona el derecho a la libertad de expresión, especialmente en lo relativo a la comunicación política de los menores. Dos adolescentes de 15 años han presentado una demanda ante el Tribunal Superior australiano, con el apoyo de activistas digitales, argumentando que se estÔ restringiendo de forma inconstitucional su capacidad para informarse, opinar y participar en el debate público a través de las redes.

Las propias empresas tecnológicas han elevado el tono. Meta, YouTube, Snapchat y el resto de firmas afectadas aseguran que ya cuentan con configuraciones específicas para cuentas de menores, que filtran contenidos dañinos, limitan la publicidad personalizada, desactivan la reproducción automÔtica o bloquean el contacto no deseado. A su juicio, la prohibición australiana pone en riesgo parte de estas protecciones porque muchos jóvenes podrÔn seguir accediendo a las plataformas sin iniciar sesión, exponiéndose así a contenidos menos moderados y anuncios menos filtrados.

Desde el sector recuerdan, ademÔs, que las sanciones económicas contempladas, aunque altas en términos absolutos, representan una fracción mínima de los ingresos globales de gigantes como Meta o Alphabet. Para algunos analistas, eso reduce el incentivo real para que las compañías se tomen muy en serio la aplicación de controles de edad robustos, mÔs allÔ de cumplir formalmente con los mínimos exigidos.

¿MÔs seguros o mÔs expuestos? Dudas sobre el impacto real en la salud mental

El trasfondo de todo el debate es la relación entre el uso de redes sociales y la salud fĆ­sica y mental de los menores. El Gobierno australiano sostiene que la correlación entre un uso intensivo de estas plataformas y problemas como la ansiedad, la baja autoestima, los trastornos del sueƱo o el aislamiento escolar es suficiente para intervenir con medidas contundentes. Argumenta que los algoritmos que empujan al consumo compulsivo de contenido, las dinĆ”micas de ā€œme gustaā€ y notificaciones constantes y la omnipresencia del móvil estĆ”n minando el bienestar de una generación entera.

No faltan estudios que apuntan en esa dirección. Investigaciones recientes han constatado que basta menos de media hora para que una cuenta nueva supuestamente adolescente en servicios como YouTube o TikTok reciba recomendaciones de vĆ­deos misóginos, violentos o vinculados a autolesiones y suicidio. Fundaciones y organizaciones especializadas han mostrado cómo, en cuestión de minutos, los algoritmos llevan a jóvenes hacia ā€œtĆŗnelesā€ de contenido extremo de los que cuesta salir.

Sin embargo, la literatura científica también subraya que la relación causa-efecto es compleja. Existen trabajos que muestran que ciertas comunidades online son un auténtico salvavidas para adolescentes LGTBIQ+, neurodivergentes o que viven en zonas rurales, permitiéndoles encontrar apoyo, información fiable y un sentido de pertenencia que no siempre tienen fuera de la pantalla. Algunos exresponsables de políticas de infancia en Australia se muestran incómodos con que la respuesta principal sea cerrar la puerta a las redes sociales en lugar de reforzar la educación digital, la moderación de contenidos y la transparencia de los algoritmos.

El propio Gobierno admite que esta no es una solución total, sino ā€œun plan de tratamiento que tendrĆ” que ir evolucionandoā€. En su hoja de ruta figura ya el siguiente paso: establecer un ā€œdeber de cuidado digitalā€, una obligación legal para que las plataformas anticipen y eviten daƱos previsibles a sus usuarios, especialmente cuando se trata de menores. La incógnita es si para cuando esa segunda fase llegue, los adolescentes ya se habrĆ”n movido, en masa, a ecosistemas que hoy no estĆ”n en el radar regulatorio.

Mientras tanto, centros de investigación australianos han anunciado que seguirĆ”n de cerca cómo varĆ­an los indicadores de bienestar y salud mental de los jóvenes tras la entrada en vigor de la prohibición. Sus primeros datos no llegarĆ”n, como mĆ­nimo, hasta dentro de uno o dos aƱos, de modo que cualquier valoración categórica —a favor o en contra— corre el riesgo de ser prematura.

Europa toma nota: la UE prepara su propio marco para menores

El eco de la decisión australiana se escucha con fuerza en Bruselas. El Parlamento Europeo aprobó recientemente una resolución que, sin ser aún una ley cerrada, marca el camino: fijar los 16 años como referencia para el acceso a redes sociales y reforzar de forma notable las salvaguardas para los menores en el entorno digital. Según el Eurobarómetro de 2025, mÔs del 90% de los ciudadanos de la UE considera urgente actuar.

La propuesta europea dibuja un modelo algo distinto. La idea general es que los menores de 13 años no puedan usar redes sociales en ningún caso, mientras que el tramo de 13 a 16 años tendría acceso solo con consentimiento explícito de padres o tutores. Las plataformas que incumplan las futuras reglas se enfrentarían a multas y a posibles prohibiciones de determinadas prÔcticas, como los algoritmos de recomendación que explotan la interacción continua o las mecÔnicas de recompensa propias de muchos juegos en línea.

Bruselas quiere acompaƱar estas obligaciones con dos piezas tĆ©cnicas clave: una aplicación europea de verificación de edad y un documento de identidad digital (eID) que permita demostrar si un usuario supera un cierto umbral de edad sin tener que exponer mĆ”s datos de la cuenta. La premisa oficial es que estas herramientas deben diseƱarse ā€œcon la privacidad por defectoā€, de manera que no se cree una gigantesca base de datos sobre la vida digital de los menores.

Paralelamente, las instituciones comunitarias miran con lupa las funciones consideradas mĆ”s adictivas: el ā€œscrollā€ infinito, las reproducciones automĆ”ticas, los sistemas de recompensas continuas, algunas formas de gamificación extrema o el uso de IA generativa para crear contenidos hiperpersonalizados o ā€œdeepfakesā€ dirigidos a adolescentes. La idea es que estas dinĆ”micas, si no se controlan, terminan empujando a los chicos y chicas a una exposición mucho mayor de la que ellos mismos elegirĆ­an conscientemente.

En los informes recientes del Parlamento Europeo se seƱala que el 97% de los menores se conecta a diario y que casi ocho de cada diez jóvenes de entre 13 y 17 aƱos revisan sus dispositivos al menos una vez por hora. Uno de cada cuatro presenta un uso considerado ā€œdisfuncionalā€ del móvil. Los eurodiputados alertan de entornos digitales que priorizan la monetización y la retención del usuario frente al interĆ©s del menor, apoyĆ”ndose en patrones oscuros, diseƱos adictivos y sistemas algorĆ­tmicos que premian el contenido mĆ”s extremo o emocional.

España, alineada con Bruselas y pendiente de la verificación de edad

En España, el movimiento regulatorio ya estÔ en marcha. El Congreso inició en septiembre la tramitación de la ley orgÔnica para la protección de los menores en entornos digitales, que sigue la estela de las recomendaciones europeas. El texto plantea prohibir el acceso a redes sociales a los menores de 13 años y exigir consentimiento expreso de los progenitores para que los adolescentes de 13 a 16 puedan abrir cuentas en estas plataformas.

El ministro para la Transformación Digital, Ɠscar López, ha vinculado directamente el calendario espaƱol con lo que se estĆ” viendo en Australia. El Gobierno quiere tener operativa la nueva arquitectura de protección en torno a 2026, pero insiste en que fijar una edad mĆ­nima legal ā€œno sirve de mucho si no existe un sistema de verificación fiableā€. En sus palabras, ā€œla herramienta es tan importante como la legislaciónā€.

Esa herramienta es Cartera Digital Beta, una credencial electrónica que permite demostrar que un usuario supera determinada edad sin revelar datos personales adicionales. El móvil genera una prueba criptogrÔfica que las plataformas pueden verificar, pero sin acceder al DNI ni almacenar información sensible. La ambición del Ejecutivo es utilizarla tanto para limitar el acceso de menores a redes sociales como para controlar la entrada a pÔginas pornogrÔficas u otros contenidos especialmente delicados.

La solución española se estÔ probando junto con otras propuestas europeas en un proyecto piloto común. Según el propio Ministerio, se trataría de la mÔs avanzada técnicamente en este momento, y su diseño busca que los adultos no tengan que entregar mÔs información de la necesaria para seguir navegando con normalidad. El desafío es doble: hacer que el sistema resulte cómodo y respetuoso con la privacidad, y, al mismo tiempo, suficientemente robusto para que no sea trivial esquivarlo.

En paralelo, la futura ley española prevé obligaciones adicionales para las plataformas, como reforzar las herramientas de control parental, habilitar canales claros de denuncia, mejorar la moderación de contenidos y establecer procedimientos de verificación de edad integrados en sus propios servicios. Sobre la mesa también estÔ la posibilidad de imponer sanciones directas a los directivos que no garanticen el cumplimiento, siguiendo la línea de otras normativas europeas en materia digital.

El giro de Australia al prohibir las redes sociales a menores de 16 aƱos ha puesto delante de Europa y de EspaƱa un espejo incómodo: muestra tanto el hartazgo social ante los efectos negativos de las plataformas como las enormes dificultades tĆ©cnicas, Ć©ticas y jurĆ­dicas de imponer lĆ­mites efectivos. Entre las voces que aplauden el movimiento por ofrecer por fin un ā€œfrenoā€ al poder de los algoritmos y quienes alertan de sus riesgos colaterales, el debate ya no es si actuar o no, sino cómo hacerlo sin generar nuevos problemas. Lo que ocurra en los próximos aƱos en las antĆ­podas marcarĆ”, en buena medida, el tono y la ambición de las reglas que acaben aplicĆ”ndose a los menores europeos cuando se conecten a la red.

Nepal bloquea redes sociales
ArtĆ­culo relacionado:
Nepal bloquea redes sociales: quƩ cambia y a quiƩn afecta

SĆ­guenos en Google News