League Of Legends : des moyens novateurs pour combattre l'homophobie.

avatar ancien membre
Ancien membre
11/07/2015 à 04:30

LoL, ou League Of Legends est un célèbre jeu que l'on peut classer dans les MOBA (arène de bataille en ligne multijoueur). Disposant d'une communauté massive de 67 millions de joueurs par mois, il est un des plus joués et des plus populaires au monde. Pas facile donc, pour une équipe de développeurs, de modérateurs et de community managers de gérer les débordements potentiels de tout ce petit monde. Ils étaient légion il y a quelques temps. Un nouveau système a pourtant été mis en place, et qui semble fonctionner à merveille.

Ce système est une approche radicalement différente de la modération. Jeffrey « Lyte » Lin, de la société Riot Games qui développe le jeu, a récemment publié un article de blog sur re/code expliquant les nombreux challenges d'une modération efficace. Il explique que, de prime abord « il est souvent très facile de détourner les yeux, plutôt que de se confronter à l'horreur des comportements haineux des joueurs. »

Pendant trois ans, des game designers et des scientifiques de plusieurs domaines (statisticiens, comportementalistes, linguistes...) ont planché sur les habitudes et les mauvais comportements des joueurs. Ce travail a révélé, via ces 67 millions de joueurs, une surprenante richesse des comportements.

L'équipe a trouvé que s'il existait une classification des joueurs allant du positif au négatif, l'écrasante majorité des comportements néfastes ne constituait pas des volontés « permanentes » de nuire et de rendre toxique, invivable, le bon déroulement d'une partie, mais provenait à 87%, de joueurs normaux et totalement sains d'esprit, ayant juste eu une mauvaise journée ou une mauvaise passe.

« Au vu de cette trouvaille, notre équipe réalisa que l'accumulation de ces comportements néfastes ne pouvait que créer une spirale vers le bas, une escalade de violence verbale. » ajoute Jeffrey Lin.

« La solution du problème était de réformer en profondeur les pratiques culturelles au sein de la communauté. Nous devions modifier les perceptions des joueurs sur la société virtuelle en général, et modifier leurs attentes sur ce qui est acceptable ou non en terme de comportements. »

Lin et son équipe ont donc construit un système de « tribunal », qui a donné à la communauté elle-même la possibilité de gérer les plaintes et les signalements pour abus. Chaque joueur peut voter, de manière positive ou négative sur tel débordement, afin de définir ce qui est légitime et ce qui ne l'est pas. L'ensemble de ces votes sert également de données pour « nourrir » petit à petit et apprendre à un robot-apprenti comment gérer ces situations de manière automatique. Et ce robot a déjà suffisamment appris, après 100 millions de votes dans 15 langues différentes !

« Dans League Of Legends, nous sommes désormais capable de donner un retour aux joueurs en temps quasi-réel. Chaque fois qu'un joueur dénonce un abus d'un autre, le robot-apprenti est informé. Dès que nous détectons de mauvais comportements, nous pouvons réagir de manière appropriée, que ce soit un carton jaune ou rouge, ou un simple avertissement. » poursuit Lin.

« Les abus verbaux ont baissé de 40%, et 91.6% des joueurs ont changé leur comportement après avoir été avertis, sans jamais commettre d'autre acte néfaste. »

Suite à ces deux systèmes de modération modifiant la perception des « normes » culturelles, l'homophobie, le racisme et le sexisme dans Leagues Of Legends est même, tombé à 2% des plaintes.

« Ces résultats nous ont enthousiasmés, parce que nous avons réalisé que, finalement » – et là il cite sans doute les frères Bogdanoff – « il n'y a pas de problème qui ne puisse être résolu. »

Lin termine : « Est-il de notre responsabilité de faire de la société virtuelle un meilleur endroit ? Bien sûr que oui, pour tout le monde. Parce que c'est notre société. »

avatar ancien membre
Ancien membre
11/07/2015 à 04:30

LoL, ou League Of Legends est un célèbre jeu que l'on peut classer dans les MOBA (arène de bataille en ligne multijoueur). Disposant d'une communauté massive de 67 millions de joueurs par mois, il est un des plus joués et des plus populaires au monde. Pas facile donc, pour une équipe de développeurs, de modérateurs et de community managers de gérer les débordements potentiels de tout ce petit monde. Ils étaient légion il y a quelques temps. Un nouveau système a pourtant été mis en place, et qui semble fonctionner à merveille.

Ce système est une approche radicalement différente de la modération. Jeffrey « Lyte » Lin, de la société Riot Games qui développe le jeu, a récemment publié un article de blog sur re/code expliquant les nombreux challenges d'une modération efficace. Il explique que, de prime abord « il est souvent très facile de détourner les yeux, plutôt que de se confronter à l'horreur des comportements haineux des joueurs. »

Pendant trois ans, des game designers et des scientifiques de plusieurs domaines (statisticiens, comportementalistes, linguistes...) ont planché sur les habitudes et les mauvais comportements des joueurs. Ce travail a révélé, via ces 67 millions de joueurs, une surprenante richesse des comportements.

L'équipe a trouvé que s'il existait une classification des joueurs allant du positif au négatif, l'écrasante majorité des comportements néfastes ne constituait pas des volontés « permanentes » de nuire et de rendre toxique, invivable, le bon déroulement d'une partie, mais provenait à 87%, de joueurs normaux et totalement sains d'esprit, ayant juste eu une mauvaise journée ou une mauvaise passe.

« Au vu de cette trouvaille, notre équipe réalisa que l'accumulation de ces comportements néfastes ne pouvait que créer une spirale vers le bas, une escalade de violence verbale. » ajoute Jeffrey Lin.

« La solution du problème était de réformer en profondeur les pratiques culturelles au sein de la communauté. Nous devions modifier les perceptions des joueurs sur la société virtuelle en général, et modifier leurs attentes sur ce qui est acceptable ou non en terme de comportements. »

Lin et son équipe ont donc construit un système de « tribunal », qui a donné à la communauté elle-même la possibilité de gérer les plaintes et les signalements pour abus. Chaque joueur peut voter, de manière positive ou négative sur tel débordement, afin de définir ce qui est légitime et ce qui ne l'est pas. L'ensemble de ces votes sert également de données pour « nourrir » petit à petit et apprendre à un robot-apprenti comment gérer ces situations de manière automatique. Et ce robot a déjà suffisamment appris, après 100 millions de votes dans 15 langues différentes !

« Dans League Of Legends, nous sommes désormais capable de donner un retour aux joueurs en temps quasi-réel. Chaque fois qu'un joueur dénonce un abus d'un autre, le robot-apprenti est informé. Dès que nous détectons de mauvais comportements, nous pouvons réagir de manière appropriée, que ce soit un carton jaune ou rouge, ou un simple avertissement. » poursuit Lin.

« Les abus verbaux ont baissé de 40%, et 91.6% des joueurs ont changé leur comportement après avoir été avertis, sans jamais commettre d'autre acte néfaste. »

Suite à ces deux systèmes de modération modifiant la perception des « normes » culturelles, l'homophobie, le racisme et le sexisme dans Leagues Of Legends est même, tombé à 2% des plaintes.

« Ces résultats nous ont enthousiasmés, parce que nous avons réalisé que, finalement » – et là il cite sans doute les frères Bogdanoff – « il n'y a pas de problème qui ne puisse être résolu. »

Lin termine : « Est-il de notre responsabilité de faire de la société virtuelle un meilleur endroit ? Bien sûr que oui, pour tout le monde. Parce que c'est notre société. »



Suivez-nous
Téléchargez l'application
Application android
conçu avec par Carbonell Wilfried
© Copyright 2024, betolerant.fr