Roblox, una de las plataformas de juegos más grandes y populares entre el público infantil, ha lanzado una serie de mejoras en sus sistemas de controles parentales y seguridad con el objetivo claro de seguir protegiendo a sus usuarios más jóvenes. Con más de 90 millones de usuarios activos diarios y una creciente preocupación sobre la seguridad de los menores en internet, la compañía ha decidido implementar cambios profundos en sus sistemas de control parental. Desde ahora, padres y cuidadores podrán gestionar muchas de estas opciones de forma remota desde sus propios dispositivos, sin necesidad de acceder directamente al dispositivo del niño.
Nuevas herramientas de gestión para los padres
Una de las principales novedades del sistema es que los padres podrán supervisar la actividad de sus hijos en Roblox a través de un tablero de control accesible desde su propio teléfono. En este tablero, podrán ver cuántas horas ha pasado su hijo jugando, revisar su lista de amigos y establecer ciertos límites para restringir su uso diario de la plataforma. A su vez, también podrán recibir notificaciones cuando sus hijos soliciten acceso a contenido más maduro, pudiendo conceder o denegar el permiso fácilmente desde su propio dispositivo. Teniendo en cuenta la inmensidad de Roblox, esta medida garantiza que los menores no accedan a contenido no adecuado sin el consentimiento explícito de sus tutores.
Restricciones en los mensajes directos
Otra medida importante es la restricción de los mensajes privados para todos los usuarios menores de 13 años. A partir de ahora, los menores no podrán enviar ni recibir mensajes fuera de los juegos o experiencias sin permiso parental.
Esta mejora es parte de un esfuerzo global de Roblox para limitar los riesgos asociados con el contacto entre desconocidos en su plataforma, poniendo especial atención en mantener comunicaciones seguras dentro del entorno de juego.
Etiquetas de contenido para mayor claridad
En la misma línea, Roblox ha implementado un sistema de etiquetado de contenido que clasificará las experiencias de acuerdo a su idoneidad para diferentes grupos de edad. Ahora, las experiencias se dividirán en cuatro categorías claramente diferenciadas: “minimal”, “mild”, “moderate” y “restricted”, siendo esta última la más restrictiva.
Los niños menores de 9 años, por ejemplo, tendrán por defecto acceso únicamente a experiencias calificadas como “minimal” o “mild”, mientras que el acceso a contenido “moderate” requerirá la autorización de sus padres. Aquellos juegos que incluyan violencia o humor crudo estarán restringidos hasta que el usuario cumpla 17 años o cuente con el permiso adecuado.
Protecciones automáticas por edad
Además de las etiquetas de contenido, Roblox ha implementado protecciones automáticas basadas en la edad del usuario. A medida que los niños crecen y pasan a nuevos rangos de edad, las restricciones se irán ajustando, lo que permitirá a los padres tener una conversación con sus hijos sobre su uso de la plataforma y determinar qué ajustes son apropiados.
Los padres recibirán notificaciones 30 días antes de cualquier cambio relacionado con la configuración de la edad de sus hijos, lo que les permitirá revisar y ajustar las configuraciones de seguridad si lo consideran necesario.
Críticas y respuesta de Roblox
Estos cambios vienen después de varios informes críticos que señalaban la falta de protección para los menores en la plataforma. Investigaciones previas habían sacado a la luz casos de grooming y contenido inapropiado, lo que generó una gran presión mediática para que la empresa mejorara sus sistemas de seguridad.
En respuesta, Roblox ha redoblado esfuerzos para asegurar que su plataforma sea un espacio más seguro para los más pequeños. El jefe de seguridad de Roblox, Matt Kaufman, confirmó que muchas de estas medidas son fruto de meses de consultas con expertos en seguridad infantil y diversos estudios internos para comprender mejor las preocupaciones de los padres y los usuarios jóvenes.
Un compromiso continuo con la seguridad
La empresa lleva casi dos décadas desarrollando y perfeccionando sus sistemas de seguridad, pero reconocen que siempre hay margen para mejorar. Desde la implementación de filtros automáticos para eliminar contenido inapropiado, hasta el empleo de tecnologías avanzadas de inteligencia artificial para mejorar la moderación, Roblox se compromete a seguir evolucionando para enfrentarse a las amenazas que puedan surgir en el futuro.
Según Kaufman, aproximadamente un 10% de la plantilla total de la compañía está dedicada a la seguridad. Esto incluye la supervisión manual de los reportes más complejos por parte de moderadores especializados, además de la automatización de controles preventivos para detener comportamientos dañinos antes de que afecten a los usuarios.
Con estas nuevas herramientas, Roblox busca recuperar la confianza de padres y reguladores, consolidándose como un lugar donde los niños puedan disfrutar de juegos seguros sin exponer su privacidad ni seguridad.