Roblox a annoncé l’application de ces nouvelles mesures de sécurité afin de renforcer la protection de ses jeunes joueurs sur cette plateforme de jeux prisée à travers le monde.
Dans un article de blog, l’entreprise a déclaré que dans les mois à venir, elle commencerait à restreindre les fonctionnalités de communication pour les enfants de moins de 13 ans, tandis que de nouvelles fonctionnalités de contrôle parental et des directives de contenu ont été lancées aujourd’hui.
Dès l’entrée en vigueur de ces changements, les utilisateurs de moins de 13 ans ne pourront plus envoyer de messages directs à d’autres utilisateurs sur Roblox en dehors des jeux.
« De plus, nous introduisons un réglage intégré qui limitera les utilisateurs de moins de 13 ans aux messages publics diffusés uniquement dans un jeu ou une expérience », a indiqué Matt Kaufman, le directeur de la sécurité de Roblox. « Par défaut, les utilisateurs de moins de 13 ans ne pourront pas envoyer de messages directs à d’autres. Les parents peuvent modifier ce paramètre dans les Contrôles Parentaux. »
Roblox a également lancé aujourd’hui la gestion à distance des contrôles parentaux. Auparavant, des contrôles tels que les limites de dépenses devaient être gérés depuis le compte de l’enfant.
« Une partie de notre vision à long terme est de donner aux parents des contrôles granulaires pour surveiller et limiter le temps que leur enfant passe sur Roblox, ce que nous avons compris être important pour les parents », a ajouté Kaufman.
« Dans le tableau de bord des Contrôles Parentaux, les parents peuvent maintenant voir le temps moyen passé à l’écran par leur enfant au cours de la semaine précédente, ainsi que la liste des amis de leur enfant. Les parents et les responsables peuvent également définir des limites quotidiennes de temps d’écran. Une fois la limite atteinte, leur enfant ne peut plus accéder à Roblox jusqu’au lendemain. »
Roblox a aussi lancé de nouvelles descriptions pour les types de contenu disponibles, avec des expériences étiquetées par le type de contenu que les utilisateurs peuvent y trouver plutôt que par âge.
Par défaut, les utilisateurs de moins de neuf ans ne peuvent accéder qu’à des expériences portant une étiquette de contenu ‘Minimale’ ou ‘Modérée’, à moins que les contrôles parentaux ne soient utilisés pour leur permettre d’accéder à un contenu plus mature.
Le contenu ‘Modéré’ « peut contenir des violences légères répétées, beaucoup de sang irréaliste, un humour grossier modéré et/ou une peur légère répétée », selon Roblox.
Ces mesures visent à répondre aux préoccupations croissantes concernant la sécurité en ligne des enfants, en particulier sur les plateformes où ils peuvent interagir avec d’autres utilisateurs. La balance entre permettre aux enfants de profiter des aspects créatifs et sociaux de Roblox, tout en protégeant leur bien-être, est un défi continu pour les développeurs de la plateforme. Ces changements ont été largement discutés dans les communautés de parents et d’éducateurs, montrant l’importance d’un cadre sécuritaire dans les espaces numériques fréquentés par des enfants. Ces discussions soulignent également l’évolution des perceptions sur la surveillance parentale et la responsabilisation des plateformes de médias sociaux et de jeux en ligne. En France, la question de la protection des jeunes internautes est également prise au sérieux. La législation s’efforce non seulement de protéger les mineurs contre les contenus inappropriés, mais aussi de responsabiliser les plates-formes sur les interactions possibles entre adultes et enfants. Les actions de Roblox sont donc d’autant plus pertinentes et bienvenues dans ce contexte. À travers ces initiatives, Roblox continue de développer un environnement numérique où la sécurité et le divertissement peuvent coexister harmonieusement, ce qui est essentiel pour soutenir le développement sain des jeunes utilisateurs tout en cultivant leur créativité et en construisant des communautés inclusives et respectueuses.