OpenAI ambitionne de résoudre le problème de la modération des contenus préjudiciables à grande échelle avec son modèle IA GPT-4.
La société d’intelligence artificielle OpenAI est convaincue que sa technologie pourrait aider à résoudre l’un des problèmes les plus latents du web, à savoir la modération de contenu à grande échelle. Selon l’entreprise, son modèle IA GPT-4 qui alimente ChatGPT pourrait remplacer des dizaines de milliers de modérateurs « humains », tout en étant presque aussi précis et plus cohérent.
OpenAI veut aider à résoudre un problème que sa technologie a contribué à exacerber…
Dans une publication sur son blog (en anglais), OpenAI affirme qu’elle utilise déjà son modèle de langage GPT-4 pour développer et affiner ses propres politiques de contenu, étiqueter du contenu et prendre des décisions. La responsable des systèmes de sécurité chez OpenAI, Lilian Weng, a déclaré : « Je souhaite que davantage de personnes gèrent leur confiance, leur sécurité et leur modération de cette manière. C’est un très bon pas en avant dans la façon dont nous pouvons utiliser l’IA pour résoudre les problèmes du monde réel d’une manière qui soit bénéfique pour la société ».
La société à l’origine de ChatGPT y voit trois avantages majeurs par rapport aux approches classiques de la modération de contenu. Premièrement, cela permettrait un étiquetage plus cohérent des contenus préjudiciables. Les modérateurs peuvent interpréter les règles différemment et passer beaucoup de temps pour assimiler les changements de politique, tandis qu’un grand modèle de langage est consistant dans son jugement et assimile instantanément les règles. Deuxièmement, GPT-4 peut prétendument contribuer à l’élaboration d’une nouvelle politique en seulement quelques heures, alors que les processus de rédaction, d’étiquetage, de collecte des commentaires et d’affinage prennent généralement des semaines. Enfin, OpenAI mentionne la pénibilité du travail des modérateurs qui sont souvent exposés à des contenus préjudiciables, voire traumatisants, qui peuvent peser sur leur santé mentale.
Néanmoins, si OpenAI semble présenter son approche comme nouvelle et révolutionnaire, l’IA est utilisée dans la modération de contenu depuis des années. Les grandes plateformes comme Meta, YouTube ou TikTok utilisent déjà des algorithmes pour modérer une grande partie des contenus nuisibles et illégaux. Ces plateformes admettent ouvertement qu’une modération parfaite du contenu à grande échelle est somme toute impossible. Les modérateurs humains comme les machines peuvent se tromper et, même avec un faible pourcentage d’erreur, il y a toujours des millions de messages nuisibles qui passent à travers les mailles du filet.
En outre, certaines zones grises comme les contenus trompeurs, erronés et agressifs (qui ne sont pas nécessairement illégaux) posent un véritable challenge aux systèmes automatisés. Il en va de même pour la satire ou les images et vidéos qui documentent des crimes ou des brutalités policières par exemple.
Le plus ironique dans cette histoire est qu’OpenAI joue un peu au pompier pyromane puisque la société souhaite aider à résoudre un problème que sa propre technologie a contribué à exacerber. En effet, l’arrivée d’IA génératives comme ChatGPT ou DALL-E a grandement facilité la création et la diffusion de fausses informations sur les réseaux sociaux.