YouTube ha empezado a ensayar en Estados Unidos un sistema de verificación de edad impulsado por inteligencia artificial con el objetivo de distinguir con más precisión entre menores y adultos. La compañía quiere reforzar las barreras frente a contenidos sensibles, con un método que no depende solo de la fecha de nacimiento declarada.
El piloto, que se aplica a una pequeña parte de la audiencia con sesión iniciada, permitirá ajustar medidas de seguridad en función de la edad estimada. La plataforma seguirá siendo accesible sin cuenta, pero ciertos vídeos quedarán bloqueados sin prueba de mayoría de edad.
Qué está probando YouTube y a quién afecta
La novedad es un sistema de inferencia de edad que se apoya en algoritmos para determinar si quien ve un vídeo es menor de 18 años. De momento se limita a un grupo acotado de usuarios en Estados Unidos y podría ampliarse más adelante si los resultados son consistentes con pruebas de otras regiones.

Cómo estima la edad la inteligencia artificial
La plataforma analizará patrones de visualización y hábitos de consumo para aproximar la edad real del espectador, independientemente del dato que figure en su perfil. Este enfoque pretende ser más difícil de burlar cuando la información de registro es poco fiable, a la vez que aplica protecciones sin exigir verificaciones invasivas de forma rutinaria.
Qué límites se activan si detecta a un menor
Si el sistema determina que el usuario es menor de 18, se endurecerán las recomendaciones y se mostrarán avisos de privacidad y recordatorios para descansar de la pantalla. Además, se desactivan los anuncios personalizados para adolescentes y se aplican controles pensados para reducir la exposición a contenido inapropiado.

Cómo corregir errores y métodos de verificación manual
En caso de que la IA se equivoque y marque a un adulto como menor, la persona podrá revertirlo aportando una identificación oficial, una tarjeta de crédito o una selfie. Con esto, YouTube busca un equilibrio entre protección de menores y vías de apelación para el resto de usuarios.
El marco legal y el debate sobre privacidad
El despliegue llega en un clima de mayor presión política, tras decisiones judiciales en Estados Unidos que empujan a reforzar el control de acceso a contenidos para adultos. Mientras tanto, algunos sostienen que Apple y Google deberían asumir más responsabilidades desde sus tiendas de apps, algo a lo que estos gigantes se resisten. Organizaciones como Electronic Frontier Foundation y Center for Democracy & Technology alertan de posibles impactos en la privacidad y en la libertad de expresión protegida por la Primera Enmienda.
Ver vídeos sin iniciar sesión: qué cambia
Seguirá siendo posible ver YouTube sin cuenta, pero habrá bloqueos automáticos para ciertos contenidos si no se verifica la mayoría de edad. La idea es impedir accesos casuales de menores a material no apto y, al mismo tiempo, evitar pedir documentación a todo el mundo.
Qué viene a continuación
Se monitorizará el rendimiento del piloto para decidir su expansión. Si la precisión se mantiene, la verificación algorítmica podría llegar a más usuarios en el país y, más adelante, a nuevas regiones. La compañía defiende que este modelo permite ofrecer protecciones sin sacrificar la privacidad de los adolescentes, en línea con lo expresado por su equipo de producto.
Este movimiento intenta encajar diferentes aspectos como la seguridad, la privacidad y los derechos digitales. La inferencia de edad con IA, la implementación de límites para menores, vías de verificación manual y el seguimiento de las obligaciones legales que se avecinan son los objetivos principales.