ubisoft logo

RAPPORT DE TRANSPARENCE SUR LA SECURITE DES JOUEURS D’UBISOFT

Dernière mise a jour: 04/2025

L'objectif de ce document est de présenter le rapport de transparence d'Ubisoft, démontrant la conformité de la société avec l’article 15 Règlement (UE) 2022/2065 du parlement européen et du conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (Règlement sur les Services Numériques ci-après « RSN »).

Nom du prestataire de services

UBISOFT

Date de publication du rapport

17 avril 2025

Date de publication du rapport antérieur

Non applicable

Date de début de la période concernée

1er janvier 2024

Date de fin de la période concernée

31 décembre 2024


CONTEXTE

La mission d'Ubisoft est de créer des expériences significatives qui enrichissent la vie des joueurs. Pour que cela devienne une réalité, il faut aller plus loin que la création de mondes immersifs. Il faut s'assurer que ces expériences soient accessibles au plus grand nombre, qu'elles sont inclusives et qu'elles exploitent le potentiel éducatif des jeux vidéo. En outre, il est essentiel de veiller à ce que les joueurs aient accès aux bonnes ressources et puissent adapter leur expérience à leurs préférences. Et bien sûr, il s'agit de garantir une expérience sûre et agréable pour tous, que ce soit en solo ou en ligne.

Les jeux en ligne offrent un environnement unique où les joueurs se sentent à l'aise, se rencontrent et collaborent. Ces liens sont essentiels pour construire une expérience enrichissante et alimenter un sentiment de communauté et de respect mutuel. Cependant, bien que la majorité des joueurs jouent de manière loyale, il est difficile de garantir des interactions positives constantes. Parfois, l'expérience peut être perturbée en raison de la tricherie, d’un comportement déloyal ou toxique. Ces éléments nuisent non seulement à l’équilibre du jeu, mais aussi au plaisir et à la sécurité de l’ensemble de la communauté de joueurs..

À mesure que les jeux vidéo évoluent en écosystèmes globaux réunissant des milliards de joueurs à travers le monde, il n’a jamais été aussi essentiel de garantir des interactions positives sur le long terme. En tant que créateurs de jeux, nous avons un devoir de diligence envers notre communauté : celui d’offrir à chacun une expérience où il peut être lui-même, se sentir accueilli, respecté et en sécurité.

Le comportement perturbateur des joueurs est un problème que nous prenons très au sérieux, bien qu’il soit particulièrement complexe à résoudre. Il s’agit d’un phénomène profondément humain, qui nécessite une approche nuancée. N’importe qui peut vivre une mauvaise journée et dépasser les limites lors d’une session de jeu en ligne. Si un tel comportement reste inacceptable et appelle une réponse appropriée, il ne définit pas pour autant la personne comme étant fondamentalement mauvaise.

Cette question, profondément humaine, est complexe et n’a pas de solution unique. Nous croyons au contraire qu’elle nécessite une approche globale et holistique, que nous détaillerons dans les pages suivantes de ce rapport. Nous sommes convaincus qu’il est essentiel de tirer parti de la technologie et de l’innovation pour améliorer continuellement l’identification, la contextualisation et la prévention des comportements perturbateurs, ainsi que pour protéger activement nos communautés grâce à un ensemble de mesures. Plus important encore, nous pensons que les sanctions ne doivent pas être notre seul levier ; l’éducation et le renforcement positif sont des éléments clés pour bâtir des communautés sûres, inclusives et respectueuses.

Aujourd’hui, nous publions ce rapport couvrant l’année 2024, qui sera mis à jour chaque année conformément à l'article 15 du Règlement sur les Services Numériques. À travers ce document, nous souhaitons communiquer de manière transparente sur ce sujet, mieux expliquer nos efforts dans ce domaine et continuer à sensibiliser le public. Notre objectif est de tracer la voie vers des expériences plus positives, plus inclusives et plus gratifiantes pour tous.

INTRODUCTION

Dans sa forme la plus pure et la plus authentique, le jeu interactif en ligne invite des joueurs du monde entier à s'engager, à s'affronter et à échanger autour d'un intérêt commun. Malheureusement, il suffit d'une poignée de joueurs au comportement perturbateur pour gâcher l'expérience de tous les autres.

Le comportement perturbateur est complexe et de grande envergure – il dépasse non seulement notre communauté Ubisoft, mais également l'industrie du jeu dans son ensemble. Bien que nous soyons pleinement engagés à protéger nos joueurs, nous reconnaissons que ce problème ne peut être résolu seuls. Au cours des dernières années, nous avons lancé des collaborations intersectorielles avec des acteurs clés également préoccupés par ce type de comportement. Nous avons également travaillé main dans la main avec des experts indépendants et des organisations internationales afin de concevoir des initiatives destinées à produire des résultats significatifs et durables.

Nous nous sommes donnés pour mission de créer une première expérience positive, de maintenir la confiance numérique sur toutes nos plateformes, de promouvoir une culture en ligne inclusive, d’enseigner à nos joueurs ce que signifie respecter les règles et de nous conformer aux lois et réglementations en vigueur à l’échelle mondiale.

Alors que nous envisagions et recherchions des moyens de déraciner les comportements perturbateurs et que nous commencions à les éradiquer systématiquement de nos communautés, il est devenu très clair que notre approche devait être multiforme et centrée sur les joueurs eux-mêmes. Le cadre que nous avons élaboré repose sur trois piliers : la prévention, la détection et l'intervention.

Prévention : Communiquer ouvertement les règles du jeu à nos joueurs dès le départ et les informer de l'impact d'un comportement perturbateur sur l'ensemble de la communauté.

  • Notre Code de Conduite : Un guide clair et axé sur les valeurs qui définit le comportement attendu des joueurs, promeut un environnement de jeu respectueux et garantit la sécurité dans l'ensemble de l'écosystème d'Ubisoft.

  • Le programme Fair Play : Un programme d'apprentissage en ligne conçu par des psychologues et des experts en apprentissage numérique pour mieux comprendre ce qu'est un comportement toxique et l'importance du respect et de l'équité.

  • Good Game Playbook : Partenariat avec l'organisation caritative Safe in Our World, spécialisée dans la santé mentale, pour créer un guide holistique destiné à aider les joueurs à comprendre les implications plus larges d'un jeu perturbateur sur les autres.

  • Réputation Score Rainbow Six Siege : système d'évaluation du comportement des joueurs. Notre philosophie directrice avec le système de réputation repose sur l’idée que chaque joueur doit comprendre pourquoi il se voit attribuer un certain niveau de réputation, savoir comment adapter son style de jeu ou ses interactions pour améliorer sa position dans ce système. Nous souhaitons offrir aux joueurs les bons outils ainsi que les opportunités nécessaires pour effectuer les ajustements nécessaires. Le lancement du système de réputation en 2022 a marqué une étape essentielle pour Ubisoft. Les retours des joueurs étant un élément clé de notre stratégie, nous restons à l’écoute de leurs avis et de leurs préoccupations.

Détection: Innover en permanence afin de détecter, d’identifier et de contrer avec précision les comportements perturbateurs est au cœur de notre démarche. La modération de contenu peut être à la fois réactive et proactive, en fonction de la nature du contenu illégal identifié.

La modération réactive désigne l’examen et les mesures prises suite aux signalements d’utilisateurs. Elle intervient donc après la diffusion du contenu, qu’il ait été signalé manuellement ou automatiquement.

À l’inverse, la modération proactive consiste à détecter de manière manuelle ou entièrement automatisée des contenus potentiellement nuisibles ou illégaux avant même qu’ils ne soient signalés.

Dans notre cas, la modération proactive est entièrement automatisée et intervient avant que le contenu ne soit visible par quiconque.

Ces deux approches fonctionnent en complémentarité afin de garantir un environnement de jeu sûr pour l’ensemble de notre communauté. Ces deux approches fonctionnent en tandem pour garantir un environnement sûr à nos joueurs.

  • Outils

    • Pour la modération des noms d'utilisateur.

    • Pour la modération des chats textuels.

  • Projet de collaboration « Zero Harm in Comms » (avec Riot Games) :

    • Développement d'une base de données anonyme pour former des systèmes de modération proactifs à base d'IA.

    • Déploiement d'outils de modération proactifs capables de détecter et de traiter les comportements toxiques et nuisibles en ligne.

Intervention: Prendre des mesures pour protéger la communauté des joueurs contre les comportements perturbateurs sous toutes leurs formes.

  • L'application d'un code de conduite, avec des efforts continus pour le rendre plus accessible et plus visible pour les joueurs.

  • Mettre en œuvre une matrice de sanctions, un document interne utilisé pour déterminer les sanctions proportionnées pour les comportements toxiques identifiés. Les sanctions peuvent inclure des pénalités in-game, des avertissements, la désactivation temporaire des communications, des interdictions temporaires ou permanentes au niveau du jeu ou du compte.

  • Modérer les contenus toxiques par des initiatives volontaires, de manière proactive (automatisation) et par l'examen humain des rapports des joueurs, et plus encore.

  • Collaborer avec les forces de l'ordre si nécessaire.

Par ces actions, Ubisoft s'efforce de garantir un environnement de jeu sûr, accueillant et agréable pour tous les joueurs.

PARTIE I – INFORMATION QUALITATIVE

1. Synthèse de la modération de contenu effectuée à l'initiative d’Ubisoft

Cette approche hybride permet de détecter et de traiter les comportements inappropriés de manière réactive et proactive, tout en contribuant à améliorer l’expérience globale des utilisateurs. En alliant technologie et expertise humaine, nous pouvons intervenir de façon ciblée et efficace, afin de maintenir un environnement de jeu sûr, respectueux et agréable pour tous.

En préambule, il est important de noter qu'Ubisoft fournit des paramètres au niveau du compte qui permettent aux joueurs de restreindre les fonctionnalités de chat dans tous nos jeux au sein de l’écosystème Ubisoft Connect. Par défaut, ces paramètres sont désactivés pour les mineurs, et les parents ou tuteurs ont accès à des outils de contrôle parental robustes pour gérer les fonctions de communication. Ces mesures de protection s'inscrivent dans le cadre de notre engagement plus large à favoriser un environnement sûr et respectueux pour tous les joueurs.

Les analyses des modérateurs jouent un rôle essentiel dans la modération du contenu en évaluant les comportements et les contenus signalés. Les modérateurs utilisent leur expertise pour prendre des décisions éclairées, telles que la réduction des privilèges ou l'imposition d'interdictions temporaires. La supervision humaine est essentielle pour traiter les cas complexes qui nécessitent une compréhension contextuelle, garantissant ainsi des résultats justes et précis.

La détection par l'IA offre une solution évolutive en automatisant l'identification des comportements problématiques. À l'aide d'algorithmes d'apprentissage automatique, l'IA peut analyser de grands volumes de données pour détecter des schémas de langage abusif, de harcèlement ou d'autres violations des règles. Cette approche proactive permet de filtrer plus efficacement les contenus indésirables.

Les filtres anti-injures sont un autre outil clé, qui bloque automatiquement les mots ou expressions inappropriés. Ces filtres peuvent être personnalisés par des modérateurs humains pour s'aligner sur les niveaux de tolérance de la communauté qui est variable en fonction des différents jeux, minimisant ainsi le langage offensant dans les outils de communication du jeu et favorisant un environnement plus respectueux.

Les équipes d'assistance à la clientèle constituent la première ligne de défense lorsque les membres de la communauté signalent des problèmes. Elles jouent un rôle essentiel en résolvant les conflits, en fournissant des explications et en veillant à ce que les violations des règles soient traitées rapidement et de manière appropriée.

L'automatisation des seuils introduit des limites prédéfinies pour déclencher des actions automatiques en réponse à des comportements spécifiques. Par exemple, des seuils peuvent être définis pour alerter les modérateurs ou appliquer des sanctions automatiques à partir d'un certain nombre de rapports ou d'actions inappropriées, rationalisant ainsi le processus de modération.

En combinant ces outils et ces stratégies, les communautés de joueurs peuvent mettre en place un système de modération robuste et proactif qui garantit un environnement sûr et attrayant pour tous les joueurs.

2. Des informations significatives et compréhensibles concernant la modération de contenu effectuée à l'initiative d’Ubisoft

Ubisoft utilise des méthodes de détection avancées pour identifier et traiter les comportements inappropriés sur ses plateformes, en combinant des systèmes automatisés et une supervision humaine pour une approche globale. Les systèmes automatisés analysent les communications des joueurs, telles que les noms d'utilisateur, les chats et les interactions vocales, afin de détecter les propos abusifs, le harcèlement ou les contenus interdits à l'aide d'algorithmes d'apprentissage automatique formés sur des ensembles de données anonymes. Ces systèmes sont conçus pour s'adapter à l'évolution des comportements, les méthodes de détection en temps réel étant régulièrement affinées pour plus de précision. Conscient de l'importance du contexte, Ubisoft entraîne les algorithmes à identifier les comportements problématiques en fonction de l'environnement de la discussion, garantissant ainsi une modération nuancée et précise. Ce contexte est régulièrement mis à jour pour refléter les changements sociétaux et les événements actuels, afin de maintenir la pertinence et l'efficacité du système.

Tous les efforts de modération sont guidés par un code de conduite clair et des conditions de service détaillées, qui définissent les comportements acceptables et les normes de la communauté. Lorsqu'un comportement inapproprié déclenche une sanction, les actions sont exécutées conformément à une matrice de bannissement prédéfinie. Cela garantit que les sanctions et les réponses sont proportionnées, cohérentes et basées sur la gravité et la fréquence des violations.

Les modérateurs humains jouent un rôle essentiel dans l'examen des contenus signalés, l'application d'un jugement contextuel et l'alignement des décisions sur les lignes directrices établies.

Cette approche structurée garantit que les méthodes de détection et d'application restent équitables, efficaces et conformes aux attentes de la réglementation et de la communauté.

3. Description qualitative des moyens automatisés

Les systèmes automatisés d'Ubisoft s'appuient sur le traitement du langage naturel (NLP) et l'apprentissage automatique pour détecter les comportements inappropriés, tels que le langage abusif et le harcèlement, dans les noms d'utilisateur, les chats textuels et les interactions vocales. Entraînés sur des ensembles de données anonymes, ces algorithmes sont conçus pour être précis et adaptables, et mettent l'accent sur la compréhension du contexte afin d'assurer une détection nuancée. Des mises à jour régulières reflètent l'évolution des contextes sociétaux, ce qui permet une modération évolutive, précise et réactive.

4. Description qualitative des indicateurs de précision et du taux d'erreur possible des moyens automatisés

Pour évaluer la précision et le taux d'erreur potentiel des systèmes de détection automatisés, plusieurs indicateurs qualitatifs et métriques sont utilisés.

INDICATEURS DE PRÉCISION

Échantillonnage périodique et aléatoire des messages : Des échantillons aléatoires de messages sont examinés périodiquement pour valider l'exactitude de la solution automatisée. Cela permet de s'assurer que le système identifie et classe correctement les messages.

Taux de précision total : Le principal indicateur de précision est calculé en divisant le nombre total de statuts de messages correctement détectés par le nombre total de messages. Il fournit une mesure globale de la performance du système.

Le retour du service d'assistance à la clientèle : Le feedback est recueilli auprès de l'équipe d'assistance à la clientèle en analysant les tickets des joueurs liés à des détections incorrectes. Ce processus d'examen humain permet d'identifier et de comprendre les cas spécifiques où le système a pu échouer, contribuant ainsi à l'amélioration du système.

INDICATEURS DE TAUX D'ERREUR

Deux indicateurs principaux sont utilisés pour évaluer le taux d'erreur :

Le Taux de faux positifs (FP) : il est calculé comme le nombre total de messages qui ont été incorrectement supprimés ou marqués (c'est-à-dire qu'ils étaient en fait sûrs mais marqués comme toxiques) divisé par le nombre total de messages. L'objectif est de minimiser ce taux afin d'éviter de bloquer inutilement des contenus sûrs.

Le Taux de faux négatifs (FN) : Ce taux mesure le nombre total de messages qui ont été conservés mais qui auraient dû être supprimés ou marqués (c'est-à-dire qu'ils étaient en fait toxiques mais marqués comme sûrs) divisé par le nombre total de messages. Un taux de faux négatifs plus faible indique une meilleure détection des contenus nuisibles.

MESURES DE LA PRÉCISION ET DU TAUX D'ERREUR

Pour affiner la mesure de la précision et de l'erreur, les paramètres suivants sont utilisés :

Rappel (Taux de vrais positifs) : Le Rappel mesure la proportion d'éléments toxiques correctement identifiés comme toxiques par le modèle. L'objectif est de maximiser le Rappel, en atteignant idéalement 100 %, ce qui signifierait que tous les éléments toxiques ont été correctement détectés.

Taux de faux positifs (FPR) : Cette mesure indique la proportion d'éléments sûrs qui ont été signalés par erreur comme toxiques. L'objectif est de minimiser ce taux, idéalement d'atteindre 0 %, afin de s'assurer que les contenus sûrs ne sont pas bloqués à tort.

ÉQUILIBRER LES TAUX DE PRÉCISION ET D'ERREUR

Dans la pratique, le modèle est soigneusement réglé pour trouver un équilibre optimal entre le taux de Rappel et le Taux de faux positifs. Il s'agit de maximiser la détection des éléments toxiques (rappel élevé) tout en minimisant le blocage incorrect des éléments sûrs (taux de faux positifs faible). Cet équilibre est essentiel pour maintenir l'efficacité et la fiabilité du système.

L'ensemble de ces indicateurs qualitatifs et de ces mesures quantitatives constitue une approche globale de l'évaluation de la précision et du taux d'erreur des systèmes de détection automatisés.

5. Spécification des finalités précises de l'application des moyens automatisés

Des moyens automatisés sont utilisés pour atteindre des objectifs clés en matière de modération de contenu, notamment la détection en temps réel des comportements toxiques, du langage abusif et des contenus interdits afin de protéger la communauté. Ces systèmes sont conçus pour être évolutifs et permettre une modération efficace de grands volumes d'interactions sur de multiples plateformes. En intégrant une évaluation contextuelle, ils analysent l'intention et l'environnement des communications afin d'améliorer la précision. Les outils automatisés facilitent également l'intervention proactive en déclenchant des sanctions et des actions sur la base de critères prédéfinis, réduisant ainsi les dommages et dissuadant les violations répétées. Ils soutiennent les modérateurs en leur fournissant des informations exploitables et des contenus signalés, ce qui permet aux réviseurs humains de se concentrer sur les cas complexes. En outre, ces systèmes garantissent la cohérence et l'équité en alignant l'application sur le code de conduite et la matrice de bannissement, tout en analysant en permanence les tendances comportementales afin d'affiner les algorithmes et d'informer les mises à jour des politiques

6. Garanties appliquées à l'utilisation de moyens automatisés

Ubisoft garantit l'utilisation responsable de ses systèmes de modération automatisés par le biais d'une série de mesures de protection. La transparence est privilégiée en communiquant clairement aux joueurs l'objectif et le fonctionnement de ces outils. Des vérifications régulières sont effectuées pour mettre à jour les algorithmes et minimiser les faux positifs et négatifs, afin de maintenir la fiabilité. Les actions automatisées sont toujours complétées par une surveillance humaine, ce qui permet une évaluation équitable et contextuelle dans les cas complexes. Nous veillons à ce que les principes de protection de la vie privée soient intégrés dès le stade de la conception de nos outils grâce à une approche « privacy by design » ou protection de la vie privée dès la conception. Des analyses d’impact sur la vie privée ont également été mises en place pour garantir la conformité des outils de modération avec le Règlement Général sur la Protection des Données (RGPD). En outre, des accords de traitement des données ont été signés avec les partenaires externes d'Ubisoft lorsqu'ils traitent des données en notre nom. Enfin, les systèmes d'Ubisoft qui s'appuient sur des moyens automatisés sont conçus pour se conformer aux exigences légales et réglementaires, notamment au Règlement sur les Services Numériques (RSN), ce qui garantit à la fois la responsabilité et l'alignement sur les meilleures pratiques.

PARTIE II – INFORMATION QUANTITATIVE

A. Requêtes des autorités des états membres [Art. 15.1(a) RSN]

  • Nombre de requêtes reçues: 31

État membre émetteur de la requête

Type de contenu illégal

Date de réception

Date d'accusé de réception

Date de réponse

Délai médian de réponse

Allemagne

Code pénal allemand, Pornographie infantile

17 mars 2025

17 mars 2025

20 mars 2025

3 jours

Allemagne

Code civil allemand, possession de fichiers pornographiques juvéniles

18 février 2025

3 mars 2025

6 mars 2025

16 jours

Allemagne

Violation de l’article 176a (abus sexuel d’enfants sans contact physique) du code pénal allemand (StGB)

13 février 2025

13 février 2025

17 février 2025

4 jours

Allemagne

RSN / Menace

13 février 2025

13 février 2025

14 février 2025

1 jour

Allemagne

Code pénal allemand 263a (fraude)

24 janvier 2025

29 janvier 2025

31 janvier 2025

7 jours

Allemagne

Violence contre un policier avec un compte TikTok

23 janvier 2025

29 janvier 2025

31 janvier 2025

8 jours

France

Requête judiciaire

21 janvier 2025

23 janvier 2025

28 janvier 2025

7 jours

Allemagne

Protection des mineurs

14 janvier 2025

16 janvier 2025

20 janvier 2025

6 jours

Allemagne

Fraude de compte

2 janvier 2025

6 janvier 2025

9 janvier 2025

7 jours

Allemagne

Menace de commettre une infraction criminelle grave

23 décembre 2024

2 janvier 2025

9 janvier 2025

17 jours

Allemagne

Discours haineux

9 décembre 2024

13 décembre 2024

13 décembre 2024

4 jours

Allemagne

Fraude à la carte bancaire – achat par téléphone

4 décembre 2024

4 décembre 2024

10 décembre 2024

5 jours

Allemagne

Extorsion et rançongiciel

20 novembre 2024

29 novembre 2024

3 décembre 2024

13 jours

Italie

Accès illégal

18 novembre 2024

20 novembre 2024

20 novembre 2024

2 jours

Allemagne

Distribution, acquisition et possession de contenu pédopornographique

28 octobre 2024

31 octobre 2024

31 octobre 2024

3 jours

Pologne

Accès illégal à plusieurs comptes

15 octobre 2024

28 octobre 2024

6 novembre 2024

22 jours

Allemagne

Espionnage de données

10 octobre 2024

29 octobre 2024

29 octobre 2024

19 jours

Allemagne

Soupçon de terrorisme et crime contre l’humanité

5 septembre 2024

11 septembre 2024

11 septembre 2024

6 jours

Allemagne

Soupçon de terrorisme

7 septembre 2024

9 septembre 2024

9 septembre 2024

2 jours

Allemagne

Usage de symboles d’organisations inconstitutionnelles et terroristes

16 août 2024

4 septembre 2024

4 septembre 2024

18 jours

Allemagne

Espionnage de données (accès illégal à plusieurs comptes)

13 août 2024

4 septembre 2024

4 septembre 2024

21 jours

Allemagne

Accès illégal à un compte

16 août 2024

21 août 2024

27 août 2024

11 jours

Pologne

Accès illégal à l'information

19 juillet 2024

23 juillet 2024

25 juillet 2024

6 jours

Allemagne

Fraude informatique : enregistrement non autorisé (connexion)

16 juillet 2024

29 juillet 2024

4 octobre 2024

80 jours

Allemagne

Cybercriminalité haineuse

12 juillet 2024

17 juillet 2024

17 juillet 2024

5 jours

Allemagne

Insulte au ministre de l’Intérieur du Mecklembourg-Poméranie-Occidentale

7 juin 2024

24 juin 2024

1er juillet 2024

24 jours

Allemagne

Fraude

13 juin 2024

24 juin 2024

24 juin 2024

11 jours

Allemagne

Fraude informatique et espionnage de données

20 mai 2024

20 mai 2024

12 juin 2024

23 jours

Allemagne

Blessures corporelles graves

20 mai 2024

20 mai 2024

4 juin 2024

15 jours

Allemagne

Fraude informatique

15 mai 2024

20 mai 2024

20 mai 2024

5 jours

Allemagne

Crime lié aux stupéfiants

21 mars 2024

21 mars 2024

22 mai 2024

62 jours

B. Notification et actions sur le contenu présumé illégal [Art.15.1 b) RSN]

Notes


  • En ce qui concerne le nombre de notifications reçues, le même contenu peut être signalé plusieurs fois. Après examen, il se peut qu'un élément de contenu ne soit pas confirmé comme problématique. Par conséquent, le nombre de rapports d'utilisateurs ne doit pas être interprété comme équivalent au nombre de violations confirmées.

  • Ubisoft n'a reçu aucun rapport soumis par des signaleurs de confiance tels que définis à l'article 22 du RSN.

  • Nous tenons également à souligner que même si les joueurs peuvent signaler plusieurs fois le même contenu ou parfois le classer de manière erronée, nous nous engageons à maintenir un écosystème sûr et sain pour nos communautés dans l'ensemble de nos jeux


  • Nombre total de notifications reçues concernant des contenus illégaux, via le site web d'assistance à la clientèle : 14 029

  • Nombre de notifications des signaleurs de confiance: 0

  • Traitement des notifications: Selon le type de jeu, les rapports des joueurs sont traités automatiquement dans le jeu en fonction de la catégorie, les modérateurs s'occupant des cas les plus fréquents et les équipes d'assistance gérant les rapports faits en dehors du jeu. Il convient de noter que la plupart des catégories de rapports sont généralement axées sur la toxicité pour un traitement dans le jeu. Il est également important de souligner qu'il est possible de signaler des contenus illégaux directement sur la plateforme CRC via l'outil d'aide.

Mesures prises à l'égard des contenus illicites à la suite des signalements : 95 444

Type de contenu prétendument illégal

Action prise

Basée sur une législation ?

Basée sur les CGU ?

Traitement automatique ?

Nombre d’actions

Comportement non consenti

Suppression de contenu

Oui

Oui

Non

33 755

Discours illégal ou nuisible

Bannissement du jeu

Oui

Oui

Non

19 397

Discours illégal ou nuisible

Mise en sourdine

Oui

Oui

Oui

15 031

Comportement non consenti

Bannissement du jeu

Oui

Oui

Non

14 016

Comportement non consenti

Bannissement du jeu

Oui

Oui

Oui

8 466

Discours illégal ou nuisible

Blocage d'une fonctionnalité

Oui

Oui

Oui

1 671

Pornographie ou contenu sexualisé

Bannissement du jeu

Oui

Oui

Non

820

Comportement non consenti

Mise en sourdine

Oui

Oui

Oui

811

Discours illégal ou nuisible

Avertissement

Oui

Oui

Oui

437

Protection des mineurs

Suppression de contenu

Oui

Oui

Non

355

Discours illégal ou nuisible

Bannissement du jeu

Oui

Oui

Oui

206

Pornographie ou contenu sexualisé

Suppression de contenu

Oui

Oui

Non

186

Comportement non consenti

Avertissement

Oui

Oui

Non

70

Discours illégal ou nuisible

Suppression de contenu

Oui

Oui

Non

44

Discours illégal ou nuisible

Avertissement

Oui

Oui

Non

38

Menaces, violence, automutilation ou suicide

Signalement à la plateforme de médias sociaux

Oui

Oui

Non

38

Discours illégal ou nuisible

Mise en sourdine

Oui

Oui

Non

32

Comportement non consenti

Signalement à la plateforme de médias sociaux

Oui

Oui

Non

28

Pornographie ou contenu sexualisé

Avertissement

Oui

Oui

Non

20

Comportement non consenti

Signalement aux forces de l’ordre

Oui

Oui

Non

14

Menaces, violence, automutilation ou suicide

Signalement aux forces de l’ordre

Oui

Oui

Non

4

Protection des mineurs

Signalement à la sécurité interne

Oui

Oui

Non

2

Protection des mineurs

Signalement au NMEC

Oui

Oui

Non

1

Protection des mineurs

Signalement à la sécurité interne

Oui

Oui

Non

1

Comportement non consenti

Signalement à la sécurité interne

Oui

Oui

Non

1

TOTAL

95 444

C. Modération de contenus à l’initiative du Fournisseur [Art.15.1 c) RSN]

Modération proactive automatisée pour le chat textuel et le nom d'utilisateur : 16 212 753

  • Utilisation des outils automatisés: 8 930 130

    • Description de l’outil: Modération du nom d'utilisateur

    • Objectifs spécifiques : L’automatisation de la modération des noms d’utilisateur protège les joueurs contre les pseudonymes contenant des contenus toxiques ou choquants, et les incite à choisir des noms sûrs.

    • Précision et taux d’erreur : Pour mesurer la performance des systèmes, nous utilisons deux indicateurs : le Rappel et le Taux de faux positifs. Le Rappel (ou Taux de vrais positifs) mesure la proportion d’éléments toxiques correctement identifiés comme tels par le modèle. L’objectif est de maximiser cet indicateur, la meilleure valeur possible étant 100 % des éléments toxiques détectés. Le Taux de faux positifs, quant à lui, mesure la proportion d’éléments sûrs que le modèle a, à tort, détectés comme toxiques. L’objectif est ici de minimiser cet indicateur, la meilleure valeur étant 0 % d’éléments sûrs bloqués par erreur. En pratique, nous ajustons le modèle pour trouver le meilleur équilibre entre Rappel et Taux de faux positifs : détecter un maximum d’éléments toxiques tout en limitant les erreurs.

    • Mesures de protection : Si un joueur conteste une sanction, il peut faire appel en contactant le support client d’Ubisoft. Le cas est alors examiné par un agent humain, qui peut lever la sanction si elle s’avère injustifiée.

  • Formation et accompagnement des modérateurs humains : Nous utilisons fréquemment les feedbacks des modérateurs humains pour repérer les erreurs du modèle et les utiliser directement afin de réentraîner ce dernier, ce qui lui permet de s’améliorer précisément sur ces points.

Type de contenu

Type de restriction

Méthode de détection

Nombre d’actions

Pornographie ou contenu sexualisé

Blocage

Nom d'utilisateur

3,876,783

Discours illégaux ou préjudiciables

Blocage

Nom d'utilisateur

2,365,717

Comportement non consensuel

Blocage

Nom d'utilisateur

1,715,626

Risque pour la sécurité publique

Blocage

Nom d'utilisateur

379,879

Protection des mineurs

Blocage

Nom d'utilisateur

370,994

Menaces, violence, automutilation ou suicide

Blocage

Nom d'utilisateur

221,131

TOTAL

8 930 130

  • Utilisation d’outils automatisés : 7 282 623

    • Description de l'outil : Filtrage des injures - Modération du chat textuel dans les jeux

    • Objectifs spécifiques : L'objectif de cette fonctionnalité est de protéger les joueurs contre les messages hautement toxiques et de les motiver à améliorer leur communication.

    • Précision et taux d'erreur : Échantillonnage périodique et aléatoire des messages afin de valider l'exactitude de la solution. Le principal indicateur de précision sera le nombre total de messages correctement détectés divisé par le nombre total de messages.

    • Garanties : Un interrupteur automatique sera mis en place pour arrêter l'impact sur les joueurs en cas de bogues ou de problèmes de fiabilité. En guise de sécurité, le nouveau système sera superposé au précédent à l'aide de RegEx. Si le joueur n'est pas d'accord avec la sanction, il peut faire appel en contactant le service clientèle d'Ubisoft. Le cas est alors examiné par un agent humain, qui peut lever la sanction si elle n'est pas justifiée.

  • Formation et accompagnement des modérateurs humains :

    Nous utilisons fréquemment les feedbacks des modérateurs humains pour repérer les erreurs du modèle et les utiliser directement afin de réentraîner ce dernier, ce qui lui permet de s’améliorer précisément sur ces points.

Content Type

Restriction Type/

Méthode de détection

Nombre d’actions

Discours illégaux ou préjudiciables

Blocage

chat textuel

6,307,427

Pornographie ou contenu sexualisé

Blocage

chat textuel

747,419

Comportement non consensuel

Blocage

chat textuel

207,340

Risque pour la sécurité publique

Blocage

chat textuel

9,243

Protection des mineurs

Blocage

chat textuel

8,618

Menaces, violence, automutilation ou suicide

Blocage

chat textuel

2,576

TOTAL

7 282 623

D. Plaintes reçues [art15. 1. d) RSN]

  • Nombre total de plaintes: 198 533

  • Fondements des plaintes : Lorsque votre compte est définitivement verrouillé pour cause de toxicité, de tricherie ou de fraude, vous ne pourrez plus accéder à aucun jeu ou service en ligne, ni aux pages de connexion des sites web d'Ubisoft.

  • Décisions prises :

Catégorie de plaintes

Nombre de plaintes

Décisions prises

Nombre de décisions infirmées

Délai médian de traitement (days)

Suspensions permanentes

3,521

Levées

0

Suspensions permanentes

195,012

Maintenues

0