La startup Modulate va fournir la technologie IA pour analyser les conversations vocales afin de détecter les violations du code de conduite du jeu.
Les jeux de tir à la première personne (FPS), comme les jeux de la franchise Call of Duty, peuvent parfois être gangrénés par la toxicité de certains joueurs dans les canaux de discussions et dans les chats vocaux. Des enquêtes ont montré que la communauté de fans de Call of Duty était proportionnellement la plus négative de tous les jeux en ligne. Une querelle entre deux joueurs a même déjà entraîné l’intervention d’une équipe du SWAT aux États-Unis. Pour remédier à ce problème, l’éditeur du jeu Activision tente depuis plusieurs années de réprimer ces comportements toxiques et une partie de la solution pourrait passer par des outils IA.
Une IA de reconnaissance vocale pour aider le travail des modérateurs d’Activision
Activision s’est associé à la startup Modulate, spécialisée dans la lutte contre les comportements toxiques en ligne, pour intégrer une « modération du chat vocal in-game » dans ses titres. Ce nouveau système de modération utilise une technologie IA baptisée ToxMod. Cette dernière permet d’identifier en temps réel des comportements toxiques comme les discours haineux, la discrimination et le harcèlement.
Pour le moment, ToxMod est déployé progressivement en version bêta en Amérique du Nord dans les jeux Call of Duty: Modern Warfare II et Call of Duty: Warzone. Un lancement global, qui n’inclut pas l’Asie pour l’instant, suivra le 10 novembre prochain et coïncidera avec la sortie de Call of Duty: Modern Warfare III, le nouvel opus de la franchise.
Modulate ne donne pas beaucoup de détails sur le fonctionnement de son outil IA ToxMod, mais le site web officiel de la startup (en anglais) indique qu’il « trie le chat vocal pour repérer les mauvais comportements, analyse les nuances de chaque conversation pour en déterminer la toxicité et permet aux modérateurs de répondre rapidement à chaque incident en fournissant un contexte pertinent et précis ». Lors d’une interview récente, le PDG de Modulate a déclaré que ToxMod vise à aller au-delà de la simple transcription des mauvais comportements en ligne, l’outil prend également en compte des facteurs comme les émotions et le volume sonore d’un joueur afin de « différencier les déclarations nuisibles de celles qui sont enjouées ».
Il faut noter tout de même que l’outil IA ne prend pas de mesures à l’encontre des joueurs sur la base de ses données, du moins pour l’instant. ToxMod se contentera dans un premier temps de soumettre des rapports aux modérateurs d’Activision. L’implication humaine restera probablement un garde-fou important dans les années à venir, certains systèmes de reconnaissance vocale ayant montré leur limite en faisant preuve de partialité dans la manière dont ils répondent aux utilisateurs selon leurs accents et leurs identités raciales.
Alors qu’OpenAI vantait il y a quelques semaines son modèle GPT-4 pour la modération les contenus à grande échelle, nous sommes encore très loin d’une vie en ligne totalement encadrée par des robots…