
Australia ha dado luz verde a una de las regulaciones más estrictas sobre el uso de plataformas digitales por parte de adolescentes, al prohibir el acceso a las redes sociales a los menores de 16 años a partir del 10 de diciembre. Aunque el sector no oculta sus dudas, las principales compañías ya preparan cambios para cumplir y evitar sanciones que pueden ser muy elevadas, con multas de hasta 49,5 millones de dólares australianos.
La medida se observa con lupa desde otros países, también en Europa y en España, donde el debate sobre la protección de la infancia en Internet gana fuerza. En paralelo, las tecnológicas han empezado a organizar una operación de gran alcance que afectará a más de un millón de perfiles de menores en Australia.
Qué contempla la ley y a quién afecta
El Parlamento australiano aprobó la norma con una mayoría clara (34 votos a favor y 19 en contra), obligando a plataformas como Facebook, Instagram, TikTok, Snapchat, X o Reddit a impedir el uso por parte de usuarios menores de 16 años. No se requiere comprobar la edad de todos, pero sí acreditar «medidas razonables» para detectar y bloquear cuentas que incumplan el requisito.
El marco sancionador es contundente: el regulador podrá imponer penalizaciones de hasta 49,5 millones de dólares australianos, equivalentes a unos 32,5 millones de dólares estadounidenses o cerca de 27,7 millones de euros. La referencia temporal es clara: a partir del 10 de diciembre, las compañías deberán tener operativos sus procedimientos.
Cómo se aplicará: detección, avisos y verificación de edad
Las empresas han avanzado que combinarán señales de comportamiento y sistemas automatizados para identificar posibles cuentas pertenecientes a menores. Si un perfil declara ser mayor pero su actividad sugiere lo contrario, podrá ser desactivado a partir de la fecha de entrada en vigor, una práctica que las compañías describen como monitorización basada en patrones de uso.
Meta (matriz de Facebook e Instagram) afirma que avisará a cientos de miles de titulares identificados como menores para preparar el cierre de sus perfiles, una medida que recuerda iniciativas como Instagram aplicará el estándar PG-13 para menores. La compañía ofrecerá a esas personas dos opciones: borrar contenidos y datos o solicitar que se conserven de forma segura hasta que alcancen la edad requerida, con lo que busca dar un margen ordenado a la retirada de cuentas.
TikTok y Snapchat han comunicado que harán procesos similares y que notificarán de manera proactiva a los usuarios afectados. Para quienes consideren que han sido catalogados por error como menores, Meta y TikTok remitirán a una herramienta de estimación de edad de terceros como vía de apelación; Snap, por su parte, está ultimando una solución específica para estos casos.
Las tres compañías han confirmado que, si detectan incongruencias evidentes (por ejemplo, perfiles que se autodefinen como adultos pero exhiben señales propias de adolescentes), procederán a suspender el acceso. Se trata de una aplicación gradual, con contacto previo y escalado de medidas cuando corresponda.
La postura de las plataformas: cumplimiento con reservas
Aunque acatarán la ley, las tecnológicas mantienen su desacuerdo de fondo. Ejecutivas de TikTok y Snap han subrayado en el Parlamento que un veto total podría desviar a parte de los jóvenes hacia servicios menos vigilados, reduciendo la capacidad de supervisión y apoyo. De manera similar, Meta ha admitido que el despliegue supone retos de ingeniería y verificación de edad de considerable complejidad.
En meses anteriores, distintas empresas del sector advirtieron de la dificultad de una implantación fiable a gran escala y de posibles efectos indeseados. Incluso se ha argumentado que ciertos servicios —como Snapchat o YouTube— no encajan en la definición tradicional de «red social», una cuestión sobre la que los reguladores australianos han optado por actuar igualmente, priorizando la protección de la infancia en el entorno digital.
Impacto más allá de Australia: foco en Europa y España
El caso australiano podría marcar tendencia regulatoria. En la Unión Europea ya rige el marco de servicios digitales con obligaciones reforzadas para proteger a los menores, y en España la discusión pública sobre el acceso de adolescentes a redes y móviles está en pleno auge. La evolución de este veto servirá de referencia práctica para evaluar qué funciona y qué puede mejorarse en la protección infantil online.
Gobiernos y legisladores europeos observan con interés los mecanismos técnicos que aplicarán las plataformas, desde los sistemas automatizados de detección hasta los canales de reclamación. La clave estará en equilibrar privacidad, seguridad y libertad de expresión, evitando que los menores migren a espacios más precarios.
Fechas y cifras clave del despliegue
Calendario: la obligación arranca el 10 de diciembre. Multas: hasta 49,5 millones de dólares australianos en caso de incumplimiento. Alcance: Meta calcula alrededor de 450.000 cuentas de menores entre Instagram y Facebook; TikTok habla de cerca de 200.000; Snapchat, de unas 440.000. En conjunto, las empresas reconocen que notificarán a más de un millón de usuarios afectados en Australia.
Además de las notificaciones y cierres, las compañías deberán demostrar al regulador que han puesto en marcha procedimientos robustos y canales de denuncia accesibles al público, lo que incluye documentar sus «medidas razonables» y sus criterios técnicos de evaluación.
El movimiento australiano tensiona el debate entre la protección de la infancia y la sociabilidad digital de los adolescentes. Las plataformas acatarán la prohibición, pero advierten de sus posibles efectos colaterales y de los desafíos técnicos. Para Europa y España, la experiencia servirá como banco de pruebas para calibrar nuevos límites y mejores salvaguardas en el uso de redes por menores.