YouTube va donner aux labels un moyen de retirer les contenus qui clonent la voix d’un artiste et va exiger des créateurs de signaler leurs contenus générés par l’IA dès 2024.
YouTube va commencer à sévir contre le clonage vocal par IA des artistes musicaux. En effet, la plateforme de partage de vidéos de Google va donner le moyen aux labels de retirer les contenus potentiels qui imitent la voix d’un artiste. En parallèle, les créateurs de contenus devront étiqueter leurs travaux générés par l’IA à partir de l’année prochaine. YouTube souhaite mettre en place deux ensembles de règles pour encadrer les deepfakes, à savoir des règles strictes pour protéger ses partenaires de l’industrie musicale et des règles plus souples pour les autres créations.
YouTube prend la loi à son compte…
L’étiquetage des contenus générés par l’IA et leur détection
Dans une publication sur son blog, YouTube a livré ses premières réflexions sur l’évolution de la modération des contenus générés par l’IA. Le principe de base est assez simple, la plateforme demandera aux créateurs de tagger les contenus « réalistes » générés à l’aide d’une IA lorsqu’ils mettent une vidéo en ligne. Ce nouveau tag apparaîtra dans la description et parfois sur les vidéos elles-mêmes pour les contenus jugés sensibles. Cependant, YouTube n’a pas encore précisé ce qu’elle considère comme « réaliste ». Plus d’informations et des exemples concrets d’utilisations de ce nouvel étiquetage seront dévoilés avant le déploiement de ces nouvelles règles dans le courant de l’année prochaine.
YouTube indique que les sanctions prévues en cas d’absence d’étiquetage des contenus générés par l’IA pourront varier, mais que celles-ci devraient inclure le retrait ou la démonétisation de la vidéo en question. La plateforme affirme avoir investi dans des outils pour détecter et déterminer avec précision si les créateurs ont respecté leurs obligations quant aux deepfakes, mais ces outils ne sont pas encore disponibles et, jusqu’à maintenant, les robots destinés à détecter le contenu généré par l’IA ne sont pas une grande réussite.
Le signalement et l’examen des « deepfakes » problématiques
À partir de cette base-là, les choses commencent à se compliquer. YouTube permettra de demander la suppression des vidéos qui « simulent une personne identifiable, y compris son visage ou sa voix » en utilisant le formulaire de confidentialité existant. Il y a donc une procédure à suivre si vous êtes victime d’un deepfake, mais la plateforme précise qu’elle « évaluera une série de facteurs lors de l’examen de ces demandes », notamment si le contenu est une parodie ou une satire.
Si cela semble familier, c’est parce que ce processus fait écho aux questions juridiques soulevées par l’IA générative ces derniers temps. Le droit à la parodie constitue un élément important de la défense dans le cadre d’un usage dit raisonnable dans les affaires de violation du droit d’auteur. Néanmoins, comme il n’existe pas encore de loi spécifique encadrant les deepfakes, YouTube créé ses propres règles. Des règles que la plateforme pourra appliquer comme elle le souhaite sans transparence ni cohérence particulières, ce qui risque encore d’ajouter à la confusion autour du droit d’auteur et de l’IA générative.
Un traitement spécial pour les partenaires de l’industrie musicale
Pour rendre le sujet encore plus complexe, YouTube souhaite instaurer des exceptions pour certains types de contenus, notamment lorsqu’il s’agit de contenu musical généré par l’IA « qui imite la voix d’un chanteur ou d’un rappeur » signé chez un label partenaire de la plateforme. Dans ce cas-là, le droit à la parodie ne s’appliquera pas et une vidéo pourrait être supprimée à la demande du label. Il existe de nombreuses chaînes YouTube spécialisées dans le clonage vocal par l’IA d’artistes vivants ou disparus et selon les nouvelles règles que souhaite mettre en place la plateforme, la plupart d’entre elles pourraient se voir censurées.
Ce traitement spécial pour les maisons de disques partenaires, que l’on peut voir objectivement comme un deux poids, deux mesures, ne fera pas partie du système d’identification automatique des contenus lorsqu’il sera mis en place en 2024. Les demandes de suppression des contenus musicaux concernés seront faites via un formulaire que les labels partenaires devront remplir.
Pour mettre un peu d’eau dans son vin, la plateforme indique qu’elle ne pénalisera pas les créateurs de contenus qui s’égarent dans ces règles encore floues, du moins pas dans les premiers temps…
Des règles à géométrie variable qui suivent les intérêts de la maison mère Google
YouTube et sa société mère Google marchent pour le moment sur des œufs, car il n’existe pas encore de cadre juridique précis pour le droit d’auteur à l’ère de l’IA générative. D’un côté, la plateforme dépend en partie de l’industrie musicale et a besoin de licences pour toute la musique qui inonde quotidiennement son réseau, en particulier pour concurrencer TikTok qui s’est imposé comme un véritable outil de découverte musicale.
Dans le même temps, Google s’efforce d’exploiter l’ensemble de l’internet global pour nourrir ses propres ambitions en matière d’intelligence artificielle. En bref, cela donne l’impression d’un géant du web qui va à la fois établir des règles spéciales pour ses partenaires de l’industrie musicale et dire à tous les autres ayants droit que leur travail sera « scraper » gratuitement et sans vergogne…