Australia acaba de estrenar la primera gran prohibición mundial del uso de redes sociales para menores de 16 aƱos, un experimento regulatorio que estĆ” siendo analizado al milĆmetro desde Europa y, en particular, desde EspaƱa. La medida, que afecta a millones de adolescentes, pretende poner coto a los riesgos asociados al uso intensivo de estas plataformas, desde el ciberacoso hasta los efectos sobre la salud mental.
Al mismo tiempo, esta decisión abre un debate incómodo pero necesario: hasta dónde deben llegar los gobiernos para proteger a los menores en internet sin vulnerar derechos fundamentales como la libertad de expresión o la privacidad. Lo que ocurra en Australia en los próximos meses servirĆ” de referencia āpara bien o para malā a los reguladores europeos que ya trabajan en normativas similares.
Qué implica la prohibición australiana para los menores de 16 años
Desde el 10 de diciembre, los niños y adolescentes australianos menores de 16 años no pueden tener cuenta en una lista concreta de plataformas: Facebook, Instagram, Threads, TikTok, Snapchat, YouTube, X (antigua Twitter), Reddit, Twitch y Kick. Las empresas estÔn obligadas a eliminar las cuentas de usuarios por debajo de esa edad y a impedir que se creen nuevas, so pena de multas que pueden llegar a 49,5 millones de dólares australianos (en torno a 30 millones de euros) en los casos mÔs graves.
La norma desplaza el foco del menor al proveedor: no se sanciona a los jóvenes ni a sus padres, sino a las compaƱĆas que no adopten āmedidas razonablesā para comprobar la edad de quienes usan sus servicios. De momento, quedan fuera de esta lista negra servicios como Roblox, Pinterest, WhatsApp, Google Classroom, YouTube Kids o LinkedIn, aunque el Gobierno ha dejado claro que el catĆ”logo de plataformas afectadas es dinĆ”mico y podrĆ” ampliarse si detectan que los adolescentes migran masivamente a otros entornos, como ocurrió en Dinamarca.
En la prĆ”ctica, muchas redes ya habĆan empezado a mover ficha dĆas antes de la entrada en vigor de la ley: Facebook e Instagram iniciaron el cierre o bloqueo progresivo de cuentas identificadas como pertenecientes a menores, y otras plataformas activaron procesos de verificación de edad mĆ”s visibles. En algunos casos, las cuentas de chicos y chicas menores de 16 no se borran del todo, sino que se ācongelanā: se permite descargar o archivar el contenido y recuperar el perfil cuando se alcance la edad mĆnima.
Para el primer ministro Anthony Albanese, se trata de una reforma āhistóricaā, que ha descrito como āuno de los mayores cambios sociales y culturales de las Ćŗltimas dĆ©cadasā. El objetivo declarado es reducir la presión digital sobre los jóvenes, limitar la exposición precoz a contenidos violentos, sexuales o misóginos y cortar, en la medida de lo posible, la dependencia de algoritmos diseƱados para maximizar el tiempo de pantalla.
Verificación de edad: IA, documentos y un campo de pruebas global
El gran punto de fricción es cómo saber quién tiene realmente menos de 16 años. Las redes sociales implicadas han apostado por una combinación de documentos oficiales, datos financieros y estimación de edad mediante inteligencia artificial. La idea es cruzar señales para detectar a los usuarios que se saltan las normas de edad introduciendo un año de nacimiento falso al registrarse.
El Gobierno australiano financió un ensayo a gran escala para probar estos mĆ©todos: se analizaron mĆ”s de 60 herramientas de verificación en decenas de miles de pruebas de reconocimiento facial y otros sistemas. Las conclusiones fueron ambiguas: todos los mĆ©todos son ātĆ©cnicamente posiblesā, pero ninguno es infalible. La verificación con DNI o pasaporte resultó la mĆ”s precisa, aunque plantea un problema evidente de confianza y privacidad para usuarios que tienen que entregar copias de documentos muy sensibles a empresas en las que, segĆŗn las encuestas, la mayorĆa de australianos no termina de confiar.
Los sistemas de estimación de edad por rasgos faciales y las tĆ©cnicas de inferencia basadas en la actividad en lĆnea mostraron limitaciones importantes justo en el rango clave: adolescentes de 14, 15, 16 o 17 aƱos. El margen de error de dos o tres aƱos es suficiente para bloquear a usuarios legĆtimos o dejar pasar a quienes, en teorĆa, deberĆan quedar fuera. AdemĆ”s, varias pruebas detectaron peores resultados con chicas y con rostros no caucĆ”sicos, lo que abre otro melón: el sesgo algorĆtmico.
Aunque los promotores de la medida insisten en que la verificación de edad puede hacerse de forma āprivada, robusta y eficazā si se combinan varias capas de control, no han desaparecido las dudas sobre el coste en tĆ©rminos de privacidad. Para millones de personas, el peaje para seguir usando redes sociales es aceptar que una IA escanee su cara o subir documentación oficial a una gran plataforma tecnológica.
Los temores no son teóricos: cuando YouTube anunció en otros paĆses que utilizarĆa IA para adivinar la edad de los usuarios, muchos adultos protestaron ante la posibilidad de ser identificados erróneamente como menores y verse obligados a entregar un escaneo facial o una copia del carnet para no perder funciones de la plataforma. El debate se ha trasladado ahora a Australia, donde los crĆticos cuestionan que se normalice este tipo de chequeos biomĆ©tricos para cualquier interacción cotidiana en la red.
Los adolescentes ya buscan atajos: VPN, plataformas grises y creatividad
Una de las primeras escenas que ha circulado en los medios australianos ilustra bien el reto prĆ”ctico de la ley. Isobel, de 13 aƱos, recibió un aviso de Snapchat: o demostraba que tenĆa al menos 16 aƱos o su cuenta quedarĆa bloqueada. Tardó menos de cinco minutos en sortear el filtro. Bastó con poner la cara de su madre delante de la cĆ”mara para que el sistema diera por buena la verificación. Otros chicos comentan que han usado fotos de famosos o personajes de videojuegos con el mismo resultado.
Las anĆ©cdotas se multiplican: una mĆ”scara de Halloween barata sirvió en un experimento universitario para engaƱar la tecnologĆa de evaluación facial; en el Reino Unido, adolescentes ya probaron a usar rostros generados o de avatares para superar controles similares; y las redes se llenan de tutoriales improvisados sobre cómo esquivar las restricciones. El propio regulador australiano reconoce que āva a haber muchos erroresā en los primeros compases de la implantación y que se trata de una ābatalla constanteā por ir cerrando grietas.
MĆ”s allĆ” de los trucos con cĆ”maras, los expertos dan por hecho que aumentarĆ” el uso de VPN y servicios que ofuscan la ubicación real del usuario. Algo parecido ya ocurrió en otros paĆses cuando se endurecieron los controles de edad para acceder a webs de contenido adulto: durante semanas, las descargas de aplicaciones VPN se dispararon y luego se estabilizaron en cifras mĆ”s altas que antes de la regulación.
Otra vĆa es el desplazamiento hacia plataformas no incluidas en la prohibición. Aplicaciones de estilo de vida, servicios de vĆdeo āalternativosā o apps de retransmisión en directo han escalado en los rankings de descargas australianos desde principios de diciembre. TambiĆ©n se observa un repunte en el uso de apps de mensajerĆa como WhatsApp, Telegram o Signal, que de momento no estĆ”n sometidas a las mismas restricciones pese a que en la prĆ”ctica permiten conversaciones, intercambio de contenidos y creación de grupos masivos entre adolescentes.
Varios especialistas apuntan igualmente a un probable desvĆo de los jóvenes hacia plataformas de videojuegos y comunidades online como Discord o Roblox. No forman parte de la lista oficial de redes sociales restringidas, pero ofrecen chat de texto y voz, difusión de enlaces y exposición a contenidos delicados. Si muchos adolescentes abandonan Instagram o TikTok para refugiarse en estos entornos menos controlados, el efecto neto de la prohibición podrĆa ser muy distinto del esperado.
Padres a favor, expertos divididos y gigantes tecnológicos a la defensiva
En el plano social, la norma nace con un respaldo notable. Encuestas recientes sitĆŗan el apoyo ciudadano en torno al 75-80% de la población australiana, con padres y madres muy movilizados tras casos de ciberacoso extremo y suicidios de menores. Algunos progenitores han relatado pĆŗblicamente cómo el acoso en lĆnea terminó empujando a sus hijos a un desenlace trĆ”gico, convirtiĆ©ndose en la cara visible de una campaƱa que pedĆa endurecer las reglas del juego digital.
Este clima ha pesado mĆ”s que las reservas de parte de la comunidad experta. Investigadores en seguridad digital y antiguos responsables de protección de la infancia advirtieron de que un veto general por edad podĆa ser una herramienta demasiado burda: temen que aĆsle a adolescentes vulnerables que encuentran apoyo en comunidades online, que genere una falsa sensación de seguridad entre las familias y que desplace los problemas a espacios menos regulados sin resolverlos.
Los grupos de derechos civiles y varias organizaciones de defensa de la privacidad han ido un paso mĆ”s allĆ”. Alegan que la ley tensiona el derecho a la libertad de expresión, especialmente en lo relativo a la comunicación polĆtica de los menores. Dos adolescentes de 15 aƱos han presentado una demanda ante el Tribunal Superior australiano, con el apoyo de activistas digitales, argumentando que se estĆ” restringiendo de forma inconstitucional su capacidad para informarse, opinar y participar en el debate pĆŗblico a travĆ©s de las redes.
Las propias empresas tecnológicas han elevado el tono. Meta, YouTube, Snapchat y el resto de firmas afectadas aseguran que ya cuentan con configuraciones especĆficas para cuentas de menores, que filtran contenidos daƱinos, limitan la publicidad personalizada, desactivan la reproducción automĆ”tica o bloquean el contacto no deseado. A su juicio, la prohibición australiana pone en riesgo parte de estas protecciones porque muchos jóvenes podrĆ”n seguir accediendo a las plataformas sin iniciar sesión, exponiĆ©ndose asĆ a contenidos menos moderados y anuncios menos filtrados.
Desde el sector recuerdan, ademĆ”s, que las sanciones económicas contempladas, aunque altas en tĆ©rminos absolutos, representan una fracción mĆnima de los ingresos globales de gigantes como Meta o Alphabet. Para algunos analistas, eso reduce el incentivo real para que las compaƱĆas se tomen muy en serio la aplicación de controles de edad robustos, mĆ”s allĆ” de cumplir formalmente con los mĆnimos exigidos.
¿MÔs seguros o mÔs expuestos? Dudas sobre el impacto real en la salud mental
El trasfondo de todo el debate es la relación entre el uso de redes sociales y la salud fĆsica y mental de los menores. El Gobierno australiano sostiene que la correlación entre un uso intensivo de estas plataformas y problemas como la ansiedad, la baja autoestima, los trastornos del sueƱo o el aislamiento escolar es suficiente para intervenir con medidas contundentes. Argumenta que los algoritmos que empujan al consumo compulsivo de contenido, las dinĆ”micas de āme gustaā y notificaciones constantes y la omnipresencia del móvil estĆ”n minando el bienestar de una generación entera.
No faltan estudios que apuntan en esa dirección. Investigaciones recientes han constatado que basta menos de media hora para que una cuenta nueva supuestamente adolescente en servicios como YouTube o TikTok reciba recomendaciones de vĆdeos misóginos, violentos o vinculados a autolesiones y suicidio. Fundaciones y organizaciones especializadas han mostrado cómo, en cuestión de minutos, los algoritmos llevan a jóvenes hacia ātĆŗnelesā de contenido extremo de los que cuesta salir.
Sin embargo, la literatura cientĆfica tambiĆ©n subraya que la relación causa-efecto es compleja. Existen trabajos que muestran que ciertas comunidades online son un autĆ©ntico salvavidas para adolescentes LGTBIQ+, neurodivergentes o que viven en zonas rurales, permitiĆ©ndoles encontrar apoyo, información fiable y un sentido de pertenencia que no siempre tienen fuera de la pantalla. Algunos exresponsables de polĆticas de infancia en Australia se muestran incómodos con que la respuesta principal sea cerrar la puerta a las redes sociales en lugar de reforzar la educación digital, la moderación de contenidos y la transparencia de los algoritmos.
El propio Gobierno admite que esta no es una solución total, sino āun plan de tratamiento que tendrĆ” que ir evolucionandoā. En su hoja de ruta figura ya el siguiente paso: establecer un ādeber de cuidado digitalā, una obligación legal para que las plataformas anticipen y eviten daƱos previsibles a sus usuarios, especialmente cuando se trata de menores. La incógnita es si para cuando esa segunda fase llegue, los adolescentes ya se habrĆ”n movido, en masa, a ecosistemas que hoy no estĆ”n en el radar regulatorio.
Mientras tanto, centros de investigación australianos han anunciado que seguirĆ”n de cerca cómo varĆan los indicadores de bienestar y salud mental de los jóvenes tras la entrada en vigor de la prohibición. Sus primeros datos no llegarĆ”n, como mĆnimo, hasta dentro de uno o dos aƱos, de modo que cualquier valoración categórica āa favor o en contraā corre el riesgo de ser prematura.
Europa toma nota: la UE prepara su propio marco para menores
El eco de la decisión australiana se escucha con fuerza en Bruselas. El Parlamento Europeo aprobó recientemente una resolución que, sin ser aún una ley cerrada, marca el camino: fijar los 16 años como referencia para el acceso a redes sociales y reforzar de forma notable las salvaguardas para los menores en el entorno digital. Según el Eurobarómetro de 2025, mÔs del 90% de los ciudadanos de la UE considera urgente actuar.
La propuesta europea dibuja un modelo algo distinto. La idea general es que los menores de 13 aƱos no puedan usar redes sociales en ningĆŗn caso, mientras que el tramo de 13 a 16 aƱos tendrĆa acceso solo con consentimiento explĆcito de padres o tutores. Las plataformas que incumplan las futuras reglas se enfrentarĆan a multas y a posibles prohibiciones de determinadas prĆ”cticas, como los algoritmos de recomendación que explotan la interacción continua o las mecĆ”nicas de recompensa propias de muchos juegos en lĆnea.
Bruselas quiere acompaƱar estas obligaciones con dos piezas tĆ©cnicas clave: una aplicación europea de verificación de edad y un documento de identidad digital (eID) que permita demostrar si un usuario supera un cierto umbral de edad sin tener que exponer mĆ”s datos de la cuenta. La premisa oficial es que estas herramientas deben diseƱarse ācon la privacidad por defectoā, de manera que no se cree una gigantesca base de datos sobre la vida digital de los menores.
Paralelamente, las instituciones comunitarias miran con lupa las funciones consideradas mĆ”s adictivas: el āscrollā infinito, las reproducciones automĆ”ticas, los sistemas de recompensas continuas, algunas formas de gamificación extrema o el uso de IA generativa para crear contenidos hiperpersonalizados o ādeepfakesā dirigidos a adolescentes. La idea es que estas dinĆ”micas, si no se controlan, terminan empujando a los chicos y chicas a una exposición mucho mayor de la que ellos mismos elegirĆan conscientemente.
En los informes recientes del Parlamento Europeo se seƱala que el 97% de los menores se conecta a diario y que casi ocho de cada diez jóvenes de entre 13 y 17 aƱos revisan sus dispositivos al menos una vez por hora. Uno de cada cuatro presenta un uso considerado ādisfuncionalā del móvil. Los eurodiputados alertan de entornos digitales que priorizan la monetización y la retención del usuario frente al interĆ©s del menor, apoyĆ”ndose en patrones oscuros, diseƱos adictivos y sistemas algorĆtmicos que premian el contenido mĆ”s extremo o emocional.
España, alineada con Bruselas y pendiente de la verificación de edad
En España, el movimiento regulatorio ya estÔ en marcha. El Congreso inició en septiembre la tramitación de la ley orgÔnica para la protección de los menores en entornos digitales, que sigue la estela de las recomendaciones europeas. El texto plantea prohibir el acceso a redes sociales a los menores de 13 años y exigir consentimiento expreso de los progenitores para que los adolescentes de 13 a 16 puedan abrir cuentas en estas plataformas.
El ministro para la Transformación Digital, Ćscar López, ha vinculado directamente el calendario espaƱol con lo que se estĆ” viendo en Australia. El Gobierno quiere tener operativa la nueva arquitectura de protección en torno a 2026, pero insiste en que fijar una edad mĆnima legal āno sirve de mucho si no existe un sistema de verificación fiableā. En sus palabras, āla herramienta es tan importante como la legislaciónā.
Esa herramienta es Cartera Digital Beta, una credencial electrónica que permite demostrar que un usuario supera determinada edad sin revelar datos personales adicionales. El móvil genera una prueba criptogrÔfica que las plataformas pueden verificar, pero sin acceder al DNI ni almacenar información sensible. La ambición del Ejecutivo es utilizarla tanto para limitar el acceso de menores a redes sociales como para controlar la entrada a pÔginas pornogrÔficas u otros contenidos especialmente delicados.
La solución espaƱola se estĆ” probando junto con otras propuestas europeas en un proyecto piloto comĆŗn. SegĆŗn el propio Ministerio, se tratarĆa de la mĆ”s avanzada tĆ©cnicamente en este momento, y su diseƱo busca que los adultos no tengan que entregar mĆ”s información de la necesaria para seguir navegando con normalidad. El desafĆo es doble: hacer que el sistema resulte cómodo y respetuoso con la privacidad, y, al mismo tiempo, suficientemente robusto para que no sea trivial esquivarlo.
En paralelo, la futura ley espaƱola prevĆ© obligaciones adicionales para las plataformas, como reforzar las herramientas de control parental, habilitar canales claros de denuncia, mejorar la moderación de contenidos y establecer procedimientos de verificación de edad integrados en sus propios servicios. Sobre la mesa tambiĆ©n estĆ” la posibilidad de imponer sanciones directas a los directivos que no garanticen el cumplimiento, siguiendo la lĆnea de otras normativas europeas en materia digital.
El giro de Australia al prohibir las redes sociales a menores de 16 aƱos ha puesto delante de Europa y de EspaƱa un espejo incómodo: muestra tanto el hartazgo social ante los efectos negativos de las plataformas como las enormes dificultades tĆ©cnicas, Ć©ticas y jurĆdicas de imponer lĆmites efectivos. Entre las voces que aplauden el movimiento por ofrecer por fin un āfrenoā al poder de los algoritmos y quienes alertan de sus riesgos colaterales, el debate ya no es si actuar o no, sino cómo hacerlo sin generar nuevos problemas. Lo que ocurra en los próximos aƱos en las antĆpodas marcarĆ”, en buena medida, el tono y la ambición de las reglas que acaben aplicĆ”ndose a los menores europeos cuando se conecten a la red.