Roblox implementa escaneo facial para verificar la edad de usuarios

Roblox activa escaneo facial obligatorio

La plataforma ajusta controles para menores

Roblox comenzó a aplicar esta semana la verificación facial de Roblox, un sistema que estima la edad de los usuarios mediante imágenes de su rostro. La empresa presentó la medida como un refuerzo de seguridad que busca evitar interacciones inapropiadas entre menores y adultos que no conocen. Además, la actualización llega mientras varios gobiernos implementan reglas más estrictas para proteger a los jóvenes en entornos digitales.

Nuevas reglas en países pioneros

Australia se convirtió en uno de los primeros países donde el sistema se activará de manera obligatoria. A partir de diciembre, cualquier persona que use la función de chat deberá verificar su edad. Países Bajos y Nueva Zelanda seguirán el mismo calendario. Después, Roblox hará obligatorio el proceso en todas las regiones donde el chat esté disponible.

Las autoridades australianas reconocen a Roblox como plataforma de juegos y no como red social; sin embargo, planean revisar sus medidas de protección para menores. Esta vigilancia ocurre mientras el país se prepara para prohibir que los menores de 16 años tengan cuentas en redes sociales, una de las restricciones más amplias del mundo.

Una comunidad joven y vulnerable

La plataforma registra cerca de 50 millones de usuarios diarios activos menores de 13 años. Esta cifra confirma a Roblox como uno de los principales espacios digitales para niños y adolescentes. Aunque la empresa implementa herramientas como control parental, filtros de lenguaje y monitoreo de texto y voz por IA, varios casos recientes han encendido alertas. En algunos juegos aparecieron recreaciones de violencia extrema y contenido sexual explícito. También se han documentado incidentes de captación de menores e incluso un secuestro vinculado a un contacto hecho dentro del juego.

Cómo funciona el escaneo facial

El nuevo proceso solicita al usuario girar ligeramente la cabeza para generar una serie de imágenes. Una empresa externa, Persona, analiza ese material y estima un rango de edad. Con base en ese resultado, el sistema define con quién puede chatear cada usuario. Por ejemplo, alguien estimado en 12 años solo podrá interactuar con usuarios de su grupo y los rangos colindantes; mientras que un usuario estimado en 18 años no podrá conversar con personas menores de 16.

Roblox asegura que las imágenes se eliminan de inmediato tras el análisis y señala que el sistema busca mejorar la experiencia general de la comunidad. La empresa afirma que la herramienta es una señal adicional dentro de un conjunto de medidas que ya existen para reforzar la seguridad.

Debates sobre privacidad y riesgos

Aunque la compañía insiste en que el material visual no se almacena, organizaciones de protección infantil piden garantizar que las imágenes no se utilicen con otros fines ni queden vinculadas a las cuentas. Estos llamados se intensifican ante antecedentes de hackeos en diversas plataformas que han comprometido fotografías e información de millones de usuarios.

Expertos en seguridad infantil consideran que la verificación facial representa un avance, aunque advierten que el mayor riesgo persiste cuando usuarios trasladan conversaciones a aplicaciones cifradas, donde el monitoreo resulta más complejo.

Demandas y desafíos legales

Roblox enfrenta múltiples demandas en Estados Unidos que señalan fallas en la protección de menores. Varias acusan a la empresa de permitir situaciones de explotación sexual en la plataforma. En uno de los casos más recientes, una madre de San Diego presentó una demanda por homicidio culposo tras el suicidio de su hijo adolescente en 2024, quien habría sido manipulado por un adulto que conoció en el juego cuando tenía 7 años.

Estos señalamientos han aumentado la presión sobre Roblox para endurecer sus controles y transparentar los mecanismos de seguridad destinados a su enorme comunidad infantil.