L'objectif de ce document est de présenter le rapport de transparence d'Ubisoft, démontrant la conformité de la société avec l’article 15 Règlement (UE) 2022/2065 du parlement européen et du conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (Règlement sur les Services Numériques ci-après « RSN »).
Nom du prestataire de services | UBISOFT |
Date de publication du rapport | 17 avril 2025 |
Date de publication du rapport antérieur | Non applicable |
Date de début de la période concernée | 1er janvier 2024 |
Date de fin de la période concernée | 31 décembre 2024 |
CONTEXTE
La mission d'Ubisoft est de créer des expériences significatives qui enrichissent la vie des joueurs. Pour que cela devienne une réalité, il faut aller plus loin que la création de mondes immersifs. Il faut s'assurer que ces expériences soient accessibles au plus grand nombre, qu'elles sont inclusives et qu'elles exploitent le potentiel éducatif des jeux vidéo. En outre, il est essentiel de veiller à ce que les joueurs aient accès aux bonnes ressources et puissent adapter leur expérience à leurs préférences. Et bien sûr, il s'agit de garantir une expérience sûre et agréable pour tous, que ce soit en solo ou en ligne.
Les jeux en ligne offrent un environnement unique où les joueurs se sentent à l'aise, se rencontrent et collaborent. Ces liens sont essentiels pour construire une expérience enrichissante et alimenter un sentiment de communauté et de respect mutuel. Cependant, bien que la majorité des joueurs jouent de manière loyale, il est difficile de garantir des interactions positives constantes. Parfois, l'expérience peut être perturbée en raison de la tricherie, d’un comportement déloyal ou toxique. Ces éléments nuisent non seulement à l’équilibre du jeu, mais aussi au plaisir et à la sécurité de l’ensemble de la communauté de joueurs..
À mesure que les jeux vidéo évoluent en écosystèmes globaux réunissant des milliards de joueurs à travers le monde, il n’a jamais été aussi essentiel de garantir des interactions positives sur le long terme. En tant que créateurs de jeux, nous avons un devoir de diligence envers notre communauté : celui d’offrir à chacun une expérience où il peut être lui-même, se sentir accueilli, respecté et en sécurité.
Le comportement perturbateur des joueurs est un problème que nous prenons très au sérieux, bien qu’il soit particulièrement complexe à résoudre. Il s’agit d’un phénomène profondément humain, qui nécessite une approche nuancée. N’importe qui peut vivre une mauvaise journée et dépasser les limites lors d’une session de jeu en ligne. Si un tel comportement reste inacceptable et appelle une réponse appropriée, il ne définit pas pour autant la personne comme étant fondamentalement mauvaise.
Cette question, profondément humaine, est complexe et n’a pas de solution unique. Nous croyons au contraire qu’elle nécessite une approche globale et holistique, que nous détaillerons dans les pages suivantes de ce rapport. Nous sommes convaincus qu’il est essentiel de tirer parti de la technologie et de l’innovation pour améliorer continuellement l’identification, la contextualisation et la prévention des comportements perturbateurs, ainsi que pour protéger activement nos communautés grâce à un ensemble de mesures. Plus important encore, nous pensons que les sanctions ne doivent pas être notre seul levier ; l’éducation et le renforcement positif sont des éléments clés pour bâtir des communautés sûres, inclusives et respectueuses.
Aujourd’hui, nous publions ce rapport couvrant l’année 2024, qui sera mis à jour chaque année conformément à l'article 15 du Règlement sur les Services Numériques. À travers ce document, nous souhaitons communiquer de manière transparente sur ce sujet, mieux expliquer nos efforts dans ce domaine et continuer à sensibiliser le public. Notre objectif est de tracer la voie vers des expériences plus positives, plus inclusives et plus gratifiantes pour tous.
INTRODUCTION
Dans sa forme la plus pure et la plus authentique, le jeu interactif en ligne invite des joueurs du monde entier à s'engager, à s'affronter et à échanger autour d'un intérêt commun. Malheureusement, il suffit d'une poignée de joueurs au comportement perturbateur pour gâcher l'expérience de tous les autres.
Le comportement perturbateur est complexe et de grande envergure – il dépasse non seulement notre communauté Ubisoft, mais également l'industrie du jeu dans son ensemble. Bien que nous soyons pleinement engagés à protéger nos joueurs, nous reconnaissons que ce problème ne peut être résolu seuls. Au cours des dernières années, nous avons lancé des collaborations intersectorielles avec des acteurs clés également préoccupés par ce type de comportement. Nous avons également travaillé main dans la main avec des experts indépendants et des organisations internationales afin de concevoir des initiatives destinées à produire des résultats significatifs et durables.
Nous nous sommes donnés pour mission de créer une première expérience positive, de maintenir la confiance numérique sur toutes nos plateformes, de promouvoir une culture en ligne inclusive, d’enseigner à nos joueurs ce que signifie respecter les règles et de nous conformer aux lois et réglementations en vigueur à l’échelle mondiale.
Alors que nous envisagions et recherchions des moyens de déraciner les comportements perturbateurs et que nous commencions à les éradiquer systématiquement de nos communautés, il est devenu très clair que notre approche devait être multiforme et centrée sur les joueurs eux-mêmes. Le cadre que nous avons élaboré repose sur trois piliers : la prévention, la détection et l'intervention.
Prévention : Communiquer ouvertement les règles du jeu à nos joueurs dès le départ et les informer de l'impact d'un comportement perturbateur sur l'ensemble de la communauté.
Notre Code de Conduite : Un guide clair et axé sur les valeurs qui définit le comportement attendu des joueurs, promeut un environnement de jeu respectueux et garantit la sécurité dans l'ensemble de l'écosystème d'Ubisoft.
Le programme Fair Play : Un programme d'apprentissage en ligne conçu par des psychologues et des experts en apprentissage numérique pour mieux comprendre ce qu'est un comportement toxique et l'importance du respect et de l'équité.
Good Game Playbook : Partenariat avec l'organisation caritative Safe in Our World, spécialisée dans la santé mentale, pour créer un guide holistique destiné à aider les joueurs à comprendre les implications plus larges d'un jeu perturbateur sur les autres.
Réputation Score Rainbow Six Siege : système d'évaluation du comportement des joueurs. Notre philosophie directrice avec le système de réputation repose sur l’idée que chaque joueur doit comprendre pourquoi il se voit attribuer un certain niveau de réputation, savoir comment adapter son style de jeu ou ses interactions pour améliorer sa position dans ce système. Nous souhaitons offrir aux joueurs les bons outils ainsi que les opportunités nécessaires pour effectuer les ajustements nécessaires. Le lancement du système de réputation en 2022 a marqué une étape essentielle pour Ubisoft. Les retours des joueurs étant un élément clé de notre stratégie, nous restons à l’écoute de leurs avis et de leurs préoccupations.
Détection: Innover en permanence afin de détecter, d’identifier et de contrer avec précision les comportements perturbateurs est au cœur de notre démarche. La modération de contenu peut être à la fois réactive et proactive, en fonction de la nature du contenu illégal identifié.
La modération réactive désigne l’examen et les mesures prises suite aux signalements d’utilisateurs. Elle intervient donc après la diffusion du contenu, qu’il ait été signalé manuellement ou automatiquement.
À l’inverse, la modération proactive consiste à détecter de manière manuelle ou entièrement automatisée des contenus potentiellement nuisibles ou illégaux avant même qu’ils ne soient signalés.
Dans notre cas, la modération proactive est entièrement automatisée et intervient avant que le contenu ne soit visible par quiconque.
Ces deux approches fonctionnent en complémentarité afin de garantir un environnement de jeu sûr pour l’ensemble de notre communauté. Ces deux approches fonctionnent en tandem pour garantir un environnement sûr à nos joueurs.
Outils
Pour la modération des noms d'utilisateur.
Pour la modération des chats textuels.
Projet de collaboration « Zero Harm in Comms » (avec Riot Games) :
Développement d'une base de données anonyme pour former des systèmes de modération proactifs à base d'IA.
Déploiement d'outils de modération proactifs capables de détecter et de traiter les comportements toxiques et nuisibles en ligne.
Intervention: Prendre des mesures pour protéger la communauté des joueurs contre les comportements perturbateurs sous toutes leurs formes.
L'application d'un code de conduite, avec des efforts continus pour le rendre plus accessible et plus visible pour les joueurs.
Mettre en œuvre une matrice de sanctions, un document interne utilisé pour déterminer les sanctions proportionnées pour les comportements toxiques identifiés. Les sanctions peuvent inclure des pénalités in-game, des avertissements, la désactivation temporaire des communications, des interdictions temporaires ou permanentes au niveau du jeu ou du compte.
Modérer les contenus toxiques par des initiatives volontaires, de manière proactive (automatisation) et par l'examen humain des rapports des joueurs, et plus encore.
Collaborer avec les forces de l'ordre si nécessaire.
Par ces actions, Ubisoft s'efforce de garantir un environnement de jeu sûr, accueillant et agréable pour tous les joueurs.
PARTIE I – INFORMATION QUALITATIVE
1. Synthèse de la modération de contenu effectuée à l'initiative d’Ubisoft
Cette approche hybride permet de détecter et de traiter les comportements inappropriés de manière réactive et proactive, tout en contribuant à améliorer l’expérience globale des utilisateurs. En alliant technologie et expertise humaine, nous pouvons intervenir de façon ciblée et efficace, afin de maintenir un environnement de jeu sûr, respectueux et agréable pour tous.
En préambule, il est important de noter qu'Ubisoft fournit des paramètres au niveau du compte qui permettent aux joueurs de restreindre les fonctionnalités de chat dans tous nos jeux au sein de l’écosystème Ubisoft Connect. Par défaut, ces paramètres sont désactivés pour les mineurs, et les parents ou tuteurs ont accès à des outils de contrôle parental robustes pour gérer les fonctions de communication. Ces mesures de protection s'inscrivent dans le cadre de notre engagement plus large à favoriser un environnement sûr et respectueux pour tous les joueurs.
Les analyses des modérateurs jouent un rôle essentiel dans la modération du contenu en évaluant les comportements et les contenus signalés. Les modérateurs utilisent leur expertise pour prendre des décisions éclairées, telles que la réduction des privilèges ou l'imposition d'interdictions temporaires. La supervision humaine est essentielle pour traiter les cas complexes qui nécessitent une compréhension contextuelle, garantissant ainsi des résultats justes et précis.
La détection par l'IA offre une solution évolutive en automatisant l'identification des comportements problématiques. À l'aide d'algorithmes d'apprentissage automatique, l'IA peut analyser de grands volumes de données pour détecter des schémas de langage abusif, de harcèlement ou d'autres violations des règles. Cette approche proactive permet de filtrer plus efficacement les contenus indésirables.
Les filtres anti-injures sont un autre outil clé, qui bloque automatiquement les mots ou expressions inappropriés. Ces filtres peuvent être personnalisés par des modérateurs humains pour s'aligner sur les niveaux de tolérance de la communauté qui est variable en fonction des différents jeux, minimisant ainsi le langage offensant dans les outils de communication du jeu et favorisant un environnement plus respectueux.
Les équipes d'assistance à la clientèle constituent la première ligne de défense lorsque les membres de la communauté signalent des problèmes. Elles jouent un rôle essentiel en résolvant les conflits, en fournissant des explications et en veillant à ce que les violations des règles soient traitées rapidement et de manière appropriée.
L'automatisation des seuils introduit des limites prédéfinies pour déclencher des actions automatiques en réponse à des comportements spécifiques. Par exemple, des seuils peuvent être définis pour alerter les modérateurs ou appliquer des sanctions automatiques à partir d'un certain nombre de rapports ou d'actions inappropriées, rationalisant ainsi le processus de modération.
En combinant ces outils et ces stratégies, les communautés de joueurs peuvent mettre en place un système de modération robuste et proactif qui garantit un environnement sûr et attrayant pour tous les joueurs.
2. Des informations significatives et compréhensibles concernant la modération de contenu effectuée à l'initiative d’Ubisoft
Ubisoft utilise des méthodes de détection avancées pour identifier et traiter les comportements inappropriés sur ses plateformes, en combinant des systèmes automatisés et une supervision humaine pour une approche globale. Les systèmes automatisés analysent les communications des joueurs, telles que les noms d'utilisateur, les chats et les interactions vocales, afin de détecter les propos abusifs, le harcèlement ou les contenus interdits à l'aide d'algorithmes d'apprentissage automatique formés sur des ensembles de données anonymes. Ces systèmes sont conçus pour s'adapter à l'évolution des comportements, les méthodes de détection en temps réel étant régulièrement affinées pour plus de précision. Conscient de l'importance du contexte, Ubisoft entraîne les algorithmes à identifier les comportements problématiques en fonction de l'environnement de la discussion, garantissant ainsi une modération nuancée et précise. Ce contexte est régulièrement mis à jour pour refléter les changements sociétaux et les événements actuels, afin de maintenir la pertinence et l'efficacité du système.
Tous les efforts de modération sont guidés par un code de conduite clair et des conditions de service détaillées, qui définissent les comportements acceptables et les normes de la communauté. Lorsqu'un comportement inapproprié déclenche une sanction, les actions sont exécutées conformément à une matrice de bannissement prédéfinie. Cela garantit que les sanctions et les réponses sont proportionnées, cohérentes et basées sur la gravité et la fréquence des violations.
Les modérateurs humains jouent un rôle essentiel dans l'examen des contenus signalés, l'application d'un jugement contextuel et l'alignement des décisions sur les lignes directrices établies.
Cette approche structurée garantit que les méthodes de détection et d'application restent équitables, efficaces et conformes aux attentes de la réglementation et de la communauté.
3. Description qualitative des moyens automatisés
Les systèmes automatisés d'Ubisoft s'appuient sur le traitement du langage naturel (NLP) et l'apprentissage automatique pour détecter les comportements inappropriés, tels que le langage abusif et le harcèlement, dans les noms d'utilisateur, les chats textuels et les interactions vocales. Entraînés sur des ensembles de données anonymes, ces algorithmes sont conçus pour être précis et adaptables, et mettent l'accent sur la compréhension du contexte afin d'assurer une détection nuancée. Des mises à jour régulières reflètent l'évolution des contextes sociétaux, ce qui permet une modération évolutive, précise et réactive.
4. Description qualitative des indicateurs de précision et du taux d'erreur possible des moyens automatisés
Pour évaluer la précision et le taux d'erreur potentiel des systèmes de détection automatisés, plusieurs indicateurs qualitatifs et métriques sont utilisés.
INDICATEURS DE PRÉCISION
Échantillonnage périodique et aléatoire des messages : Des échantillons aléatoires de messages sont examinés périodiquement pour valider l'exactitude de la solution automatisée. Cela permet de s'assurer que le système identifie et classe correctement les messages.
Taux de précision total : Le principal indicateur de précision est calculé en divisant le nombre total de statuts de messages correctement détectés par le nombre total de messages. Il fournit une mesure globale de la performance du système.
Le retour du service d'assistance à la clientèle : Le feedback est recueilli auprès de l'équipe d'assistance à la clientèle en analysant les tickets des joueurs liés à des détections incorrectes. Ce processus d'examen humain permet d'identifier et de comprendre les cas spécifiques où le système a pu échouer, contribuant ainsi à l'amélioration du système.
INDICATEURS DE TAUX D'ERREUR
Deux indicateurs principaux sont utilisés pour évaluer le taux d'erreur :
Le Taux de faux positifs (FP) : il est calculé comme le nombre total de messages qui ont été incorrectement supprimés ou marqués (c'est-à-dire qu'ils étaient en fait sûrs mais marqués comme toxiques) divisé par le nombre total de messages. L'objectif est de minimiser ce taux afin d'éviter de bloquer inutilement des contenus sûrs.
Le Taux de faux négatifs (FN) : Ce taux mesure le nombre total de messages qui ont été conservés mais qui auraient dû être supprimés ou marqués (c'est-à-dire qu'ils étaient en fait toxiques mais marqués comme sûrs) divisé par le nombre total de messages. Un taux de faux négatifs plus faible indique une meilleure détection des contenus nuisibles.
MESURES DE LA PRÉCISION ET DU TAUX D'ERREUR
Pour affiner la mesure de la précision et de l'erreur, les paramètres suivants sont utilisés :
Rappel (Taux de vrais positifs) : Le Rappel mesure la proportion d'éléments toxiques correctement identifiés comme toxiques par le modèle. L'objectif est de maximiser le Rappel, en atteignant idéalement 100 %, ce qui signifierait que tous les éléments toxiques ont été correctement détectés.
Taux de faux positifs (FPR) : Cette mesure indique la proportion d'éléments sûrs qui ont été signalés par erreur comme toxiques. L'objectif est de minimiser ce taux, idéalement d'atteindre 0 %, afin de s'assurer que les contenus sûrs ne sont pas bloqués à tort.
ÉQUILIBRER LES TAUX DE PRÉCISION ET D'ERREUR
Dans la pratique, le modèle est soigneusement réglé pour trouver un équilibre optimal entre le taux de Rappel et le Taux de faux positifs. Il s'agit de maximiser la détection des éléments toxiques (rappel élevé) tout en minimisant le blocage incorrect des éléments sûrs (taux de faux positifs faible). Cet équilibre est essentiel pour maintenir l'efficacité et la fiabilité du système.
L'ensemble de ces indicateurs qualitatifs et de ces mesures quantitatives constitue une approche globale de l'évaluation de la précision et du taux d'erreur des systèmes de détection automatisés.
5. Spécification des finalités précises de l'application des moyens automatisés
Des moyens automatisés sont utilisés pour atteindre des objectifs clés en matière de modération de contenu, notamment la détection en temps réel des comportements toxiques, du langage abusif et des contenus interdits afin de protéger la communauté. Ces systèmes sont conçus pour être évolutifs et permettre une modération efficace de grands volumes d'interactions sur de multiples plateformes. En intégrant une évaluation contextuelle, ils analysent l'intention et l'environnement des communications afin d'améliorer la précision. Les outils automatisés facilitent également l'intervention proactive en déclenchant des sanctions et des actions sur la base de critères prédéfinis, réduisant ainsi les dommages et dissuadant les violations répétées. Ils soutiennent les modérateurs en leur fournissant des informations exploitables et des contenus signalés, ce qui permet aux réviseurs humains de se concentrer sur les cas complexes. En outre, ces systèmes garantissent la cohérence et l'équité en alignant l'application sur le code de conduite et la matrice de bannissement, tout en analysant en permanence les tendances comportementales afin d'affiner les algorithmes et d'informer les mises à jour des politiques
6. Garanties appliquées à l'utilisation de moyens automatisés
Ubisoft garantit l'utilisation responsable de ses systèmes de modération automatisés par le biais d'une série de mesures de protection. La transparence est privilégiée en communiquant clairement aux joueurs l'objectif et le fonctionnement de ces outils. Des vérifications régulières sont effectuées pour mettre à jour les algorithmes et minimiser les faux positifs et négatifs, afin de maintenir la fiabilité. Les actions automatisées sont toujours complétées par une surveillance humaine, ce qui permet une évaluation équitable et contextuelle dans les cas complexes. Nous veillons à ce que les principes de protection de la vie privée soient intégrés dès le stade de la conception de nos outils grâce à une approche « privacy by design » ou protection de la vie privée dès la conception. Des analyses d’impact sur la vie privée ont également été mises en place pour garantir la conformité des outils de modération avec le Règlement Général sur la Protection des Données (RGPD). En outre, des accords de traitement des données ont été signés avec les partenaires externes d'Ubisoft lorsqu'ils traitent des données en notre nom. Enfin, les systèmes d'Ubisoft qui s'appuient sur des moyens automatisés sont conçus pour se conformer aux exigences légales et réglementaires, notamment au Règlement sur les Services Numériques (RSN), ce qui garantit à la fois la responsabilité et l'alignement sur les meilleures pratiques.
PARTIE II – INFORMATION QUANTITATIVE
A. Requêtes des autorités des états membres [Art. 15.1(a) RSN]
Nombre de requêtes reçues: 31
État membre émetteur de la requête | Type de contenu illégal | Date de réception | Date d'accusé de réception | Date de réponse | Délai médian de réponse |
Allemagne | Code pénal allemand, Pornographie infantile | 17 mars 2025 | 17 mars 2025 | 20 mars 2025 | 3 jours |
Allemagne | Code civil allemand, possession de fichiers pornographiques juvéniles | 18 février 2025 | 3 mars 2025 | 6 mars 2025 | 16 jours |
Allemagne | Violation de l’article 176a (abus sexuel d’enfants sans contact physique) du code pénal allemand (StGB) | 13 février 2025 | 13 février 2025 | 17 février 2025 | 4 jours |
Allemagne | RSN / Menace | 13 février 2025 | 13 février 2025 | 14 février 2025 | 1 jour |
Allemagne | Code pénal allemand 263a (fraude) | 24 janvier 2025 | 29 janvier 2025 | 31 janvier 2025 | 7 jours |
Allemagne | Violence contre un policier avec un compte TikTok | 23 janvier 2025 | 29 janvier 2025 | 31 janvier 2025 | 8 jours |
France | Requête judiciaire | 21 janvier 2025 | 23 janvier 2025 | 28 janvier 2025 | 7 jours |
Allemagne | Protection des mineurs | 14 janvier 2025 | 16 janvier 2025 | 20 janvier 2025 | 6 jours |
Allemagne | Fraude de compte | 2 janvier 2025 | 6 janvier 2025 | 9 janvier 2025 | 7 jours |
Allemagne | Menace de commettre une infraction criminelle grave | 23 décembre 2024 | 2 janvier 2025 | 9 janvier 2025 | 17 jours |
Allemagne | Discours haineux | 9 décembre 2024 | 13 décembre 2024 | 13 décembre 2024 | 4 jours |
Allemagne | Fraude à la carte bancaire – achat par téléphone | 4 décembre 2024 | 4 décembre 2024 | 10 décembre 2024 | 5 jours |
Allemagne | Extorsion et rançongiciel | 20 novembre 2024 | 29 novembre 2024 | 3 décembre 2024 | 13 jours |
Italie | Accès illégal | 18 novembre 2024 | 20 novembre 2024 | 20 novembre 2024 | 2 jours |
Allemagne | Distribution, acquisition et possession de contenu pédopornographique | 28 octobre 2024 | 31 octobre 2024 | 31 octobre 2024 | 3 jours |
Pologne | Accès illégal à plusieurs comptes | 15 octobre 2024 | 28 octobre 2024 | 6 novembre 2024 | 22 jours |
Allemagne | Espionnage de données | 10 octobre 2024 | 29 octobre 2024 | 29 octobre 2024 | 19 jours |
Allemagne | Soupçon de terrorisme et crime contre l’humanité | 5 septembre 2024 | 11 septembre 2024 | 11 septembre 2024 | 6 jours |
Allemagne | Soupçon de terrorisme | 7 septembre 2024 | 9 septembre 2024 | 9 septembre 2024 | 2 jours |
Allemagne | Usage de symboles d’organisations inconstitutionnelles et terroristes | 16 août 2024 | 4 septembre 2024 | 4 septembre 2024 | 18 jours |
Allemagne | Espionnage de données (accès illégal à plusieurs comptes) | 13 août 2024 | 4 septembre 2024 | 4 septembre 2024 | 21 jours |
Allemagne | Accès illégal à un compte | 16 août 2024 | 21 août 2024 | 27 août 2024 | 11 jours |
Pologne | Accès illégal à l'information | 19 juillet 2024 | 23 juillet 2024 | 25 juillet 2024 | 6 jours |
Allemagne | Fraude informatique : enregistrement non autorisé (connexion) | 16 juillet 2024 | 29 juillet 2024 | 4 octobre 2024 | 80 jours |
Allemagne | Cybercriminalité haineuse | 12 juillet 2024 | 17 juillet 2024 | 17 juillet 2024 | 5 jours |
Allemagne | Insulte au ministre de l’Intérieur du Mecklembourg-Poméranie-Occidentale | 7 juin 2024 | 24 juin 2024 | 1er juillet 2024 | 24 jours |
Allemagne | Fraude | 13 juin 2024 | 24 juin 2024 | 24 juin 2024 | 11 jours |
Allemagne | Fraude informatique et espionnage de données | 20 mai 2024 | 20 mai 2024 | 12 juin 2024 | 23 jours |
Allemagne | Blessures corporelles graves | 20 mai 2024 | 20 mai 2024 | 4 juin 2024 | 15 jours |
Allemagne | Fraude informatique | 15 mai 2024 | 20 mai 2024 | 20 mai 2024 | 5 jours |
Allemagne | Crime lié aux stupéfiants | 21 mars 2024 | 21 mars 2024 | 22 mai 2024 | 62 jours |
B. Notification et actions sur le contenu présumé illégal [Art.15.1 b) RSN]
Notes
En ce qui concerne le nombre de notifications reçues, le même contenu peut être signalé plusieurs fois. Après examen, il se peut qu'un élément de contenu ne soit pas confirmé comme problématique. Par conséquent, le nombre de rapports d'utilisateurs ne doit pas être interprété comme équivalent au nombre de violations confirmées.
Ubisoft n'a reçu aucun rapport soumis par des signaleurs de confiance tels que définis à l'article 22 du RSN.
Nous tenons également à souligner que même si les joueurs peuvent signaler plusieurs fois le même contenu ou parfois le classer de manière erronée, nous nous engageons à maintenir un écosystème sûr et sain pour nos communautés dans l'ensemble de nos jeux
Nombre total de notifications reçues concernant des contenus illégaux, via le site web d'assistance à la clientèle : 14 029
Nombre de notifications des signaleurs de confiance: 0
Traitement des notifications: Selon le type de jeu, les rapports des joueurs sont traités automatiquement dans le jeu en fonction de la catégorie, les modérateurs s'occupant des cas les plus fréquents et les équipes d'assistance gérant les rapports faits en dehors du jeu. Il convient de noter que la plupart des catégories de rapports sont généralement axées sur la toxicité pour un traitement dans le jeu. Il est également important de souligner qu'il est possible de signaler des contenus illégaux directement sur la plateforme CRC via l'outil d'aide.
Mesures prises à l'égard des contenus illicites à la suite des signalements : 95 444
Type de contenu prétendument illégal | Action prise | Basée sur une législation ? | Basée sur les CGU ? | Traitement automatique ? | Nombre d’actions |
Comportement non consenti | Suppression de contenu | Oui | Oui | Non | 33 755 |
Discours illégal ou nuisible | Bannissement du jeu | Oui | Oui | Non | 19 397 |
Discours illégal ou nuisible | Mise en sourdine | Oui | Oui | Oui | 15 031 |
Comportement non consenti | Bannissement du jeu | Oui | Oui | Non | 14 016 |
Comportement non consenti | Bannissement du jeu | Oui | Oui | Oui | 8 466 |
Discours illégal ou nuisible | Blocage d'une fonctionnalité | Oui | Oui | Oui | 1 671 |
Pornographie ou contenu sexualisé | Bannissement du jeu | Oui | Oui | Non | 820 |
Comportement non consenti | Mise en sourdine | Oui | Oui | Oui | 811 |
Discours illégal ou nuisible | Avertissement | Oui | Oui | Oui | 437 |
Protection des mineurs | Suppression de contenu | Oui | Oui | Non | 355 |
Discours illégal ou nuisible | Bannissement du jeu | Oui | Oui | Oui | 206 |
Pornographie ou contenu sexualisé | Suppression de contenu | Oui | Oui | Non | 186 |
Comportement non consenti | Avertissement | Oui | Oui | Non | 70 |
Discours illégal ou nuisible | Suppression de contenu | Oui | Oui | Non | 44 |
Discours illégal ou nuisible | Avertissement | Oui | Oui | Non | 38 |
Menaces, violence, automutilation ou suicide | Signalement à la plateforme de médias sociaux | Oui | Oui | Non | 38 |
Discours illégal ou nuisible | Mise en sourdine | Oui | Oui | Non | 32 |
Comportement non consenti | Signalement à la plateforme de médias sociaux | Oui | Oui | Non | 28 |
Pornographie ou contenu sexualisé | Avertissement | Oui | Oui | Non | 20 |
Comportement non consenti | Signalement aux forces de l’ordre | Oui | Oui | Non | 14 |
Menaces, violence, automutilation ou suicide | Signalement aux forces de l’ordre | Oui | Oui | Non | 4 |
Protection des mineurs | Signalement à la sécurité interne | Oui | Oui | Non | 2 |
Protection des mineurs | Signalement au NMEC | Oui | Oui | Non | 1 |
Protection des mineurs | Signalement à la sécurité interne | Oui | Oui | Non | 1 |
Comportement non consenti | Signalement à la sécurité interne | Oui | Oui | Non | 1 |
TOTAL | 95 444 |
C. Modération de contenus à l’initiative du Fournisseur [Art.15.1 c) RSN]
Modération proactive automatisée pour le chat textuel et le nom d'utilisateur : 16 212 753
Utilisation des outils automatisés: 8 930 130
Description de l’outil: Modération du nom d'utilisateur
Objectifs spécifiques : L’automatisation de la modération des noms d’utilisateur protège les joueurs contre les pseudonymes contenant des contenus toxiques ou choquants, et les incite à choisir des noms sûrs.
Précision et taux d’erreur : Pour mesurer la performance des systèmes, nous utilisons deux indicateurs : le Rappel et le Taux de faux positifs. Le Rappel (ou Taux de vrais positifs) mesure la proportion d’éléments toxiques correctement identifiés comme tels par le modèle. L’objectif est de maximiser cet indicateur, la meilleure valeur possible étant 100 % des éléments toxiques détectés. Le Taux de faux positifs, quant à lui, mesure la proportion d’éléments sûrs que le modèle a, à tort, détectés comme toxiques. L’objectif est ici de minimiser cet indicateur, la meilleure valeur étant 0 % d’éléments sûrs bloqués par erreur. En pratique, nous ajustons le modèle pour trouver le meilleur équilibre entre Rappel et Taux de faux positifs : détecter un maximum d’éléments toxiques tout en limitant les erreurs.
Mesures de protection : Si un joueur conteste une sanction, il peut faire appel en contactant le support client d’Ubisoft. Le cas est alors examiné par un agent humain, qui peut lever la sanction si elle s’avère injustifiée.
Formation et accompagnement des modérateurs humains : Nous utilisons fréquemment les feedbacks des modérateurs humains pour repérer les erreurs du modèle et les utiliser directement afin de réentraîner ce dernier, ce qui lui permet de s’améliorer précisément sur ces points.
Type de contenu | Type de restriction | Méthode de détection | Nombre d’actions |
Pornographie ou contenu sexualisé | Blocage | Nom d'utilisateur | 3,876,783 |
Discours illégaux ou préjudiciables | Blocage | Nom d'utilisateur | 2,365,717 |
Comportement non consensuel | Blocage | Nom d'utilisateur | 1,715,626 |
Risque pour la sécurité publique | Blocage | Nom d'utilisateur | 379,879 |
Protection des mineurs | Blocage | Nom d'utilisateur | 370,994 |
Menaces, violence, automutilation ou suicide | Blocage | Nom d'utilisateur | 221,131 |
TOTAL | 8 930 130 |
Utilisation d’outils automatisés : 7 282 623
Description de l'outil : Filtrage des injures - Modération du chat textuel dans les jeux
Objectifs spécifiques : L'objectif de cette fonctionnalité est de protéger les joueurs contre les messages hautement toxiques et de les motiver à améliorer leur communication.
Précision et taux d'erreur : Échantillonnage périodique et aléatoire des messages afin de valider l'exactitude de la solution. Le principal indicateur de précision sera le nombre total de messages correctement détectés divisé par le nombre total de messages.
Garanties : Un interrupteur automatique sera mis en place pour arrêter l'impact sur les joueurs en cas de bogues ou de problèmes de fiabilité. En guise de sécurité, le nouveau système sera superposé au précédent à l'aide de RegEx. Si le joueur n'est pas d'accord avec la sanction, il peut faire appel en contactant le service clientèle d'Ubisoft. Le cas est alors examiné par un agent humain, qui peut lever la sanction si elle n'est pas justifiée.
Formation et accompagnement des modérateurs humains :
Nous utilisons fréquemment les feedbacks des modérateurs humains pour repérer les erreurs du modèle et les utiliser directement afin de réentraîner ce dernier, ce qui lui permet de s’améliorer précisément sur ces points.
Content Type | Restriction Type/ | Méthode de détection | Nombre d’actions |
Discours illégaux ou préjudiciables | Blocage | chat textuel | 6,307,427 |
Pornographie ou contenu sexualisé | Blocage | chat textuel | 747,419 |
Comportement non consensuel | Blocage | chat textuel | 207,340 |
Risque pour la sécurité publique | Blocage | chat textuel | 9,243 |
Protection des mineurs | Blocage | chat textuel | 8,618 |
Menaces, violence, automutilation ou suicide | Blocage | chat textuel | 2,576 |
TOTAL | 7 282 623 |
D. Plaintes reçues [art15. 1. d) RSN]
Nombre total de plaintes: 198 533
Fondements des plaintes : Lorsque votre compte est définitivement verrouillé pour cause de toxicité, de tricherie ou de fraude, vous ne pourrez plus accéder à aucun jeu ou service en ligne, ni aux pages de connexion des sites web d'Ubisoft.
Décisions prises :
Catégorie de plaintes | Nombre de plaintes | Décisions prises | Nombre de décisions infirmées | Délai médian de traitement (days) |
Suspensions permanentes | 3,521 | Levées | 0 | |
Suspensions permanentes | 195,012 | Maintenues | 0 |