Vingt mille. C’est le nombre de morceaux générés par intelligence artificielle qui arrivent chaque jour sur Deezer, selon les chercheurs de la plateforme. À la fin de 2024, ces productions représentaient 18 % du contenu — en majorité liées à de la fraude, pas à de la création légitime. Rapporté à l’année, ce sont plus de sept millions de morceaux fantômes qui inondent une seule plateforme. L’industrie musicale n’est que le front le plus visible d’une collision qui touche les arts visuels, le doublage, la littérature et le cinéma.
Le Parlement européen pose les bases d’une riposte
Le 10 mars 2026, le Parlement européen a voté en séance plénière le rapport Voss sur l’IA générative et le droit d’auteur : 460 voix pour, 71 contre, 88 abstentions. Le texte, adopté par la commission des affaires juridiques le 28 janvier, pose trois principes.
Premier principe : la transparence totale. Les fournisseurs de modèles d’IA devront documenter les œuvres utilisées pour entraîner leurs systèmes, avec des enregistrements détaillés de leurs activités d’exploration de données. Deuxième : la rémunération équitable, via des accords de licences collectives par secteur accessibles aux créateurs individuels et aux PME. Troisième : le droit de refus — les titulaires de droits, y compris les médias d’information, doivent pouvoir empêcher l’utilisation de leur contenu par les systèmes d’IA.
Le rapport Voss n’est pas contraignant. C’est une feuille de route adressée à la Commission européenne, qui devra proposer des textes législatifs. Mais le signal politique est sans ambiguïté : 460 eurodéputés ont estimé que le cadre actuel ne protège pas les créateurs.
La France prépare une loi avec un mécanisme inédit
Le Sénat examinera le 8 avril 2026, en séance publique, une proposition de loi sur l’encadrement de l’IA par le droit d’auteur. Si elle est adoptée, la France deviendrait l’un des premiers pays à imposer un cadre protecteur spécifique pour ses créateurs face aux entreprises d’IA.
Le mécanisme central est un renversement de la charge de la preuve. Dans le droit actuel, c’est à l’auteur de démontrer que son œuvre a été utilisée pour entraîner un modèle d’IA — une tâche quasi impossible quand les jeux de données comptent des milliards de documents. La proposition de loi inverse cette logique : si un auteur a des raisons sérieuses de penser que son œuvre a été exploitée, c’est à l’entreprise d’IA de prouver le contraire.
Ce principe rejoint les revendications de l’ADAGP, la société française de gestion des droits des artistes visuels. Dans une tribune signée par de nombreux auteurs et artistes, l’ADAGP demande trois garanties : « le consentement préalable des auteurs, leur rémunération pour l’utilisation de leurs œuvres, et la transparence sur les données d’entraînement ». Un signal a déjà été envoyé par Anthropic, développeur de l’IA Claude, qui a proposé des indemnités aux auteurs du livre dont les œuvres ont été utilisées — avec une date limite fixée au 23 mars 2026.
Deepfakes : la loi existe, mais le volume échappe à tout contrôle
Sur le terrain des deepfakes, la France dispose déjà d’un arsenal juridique. L’article 226-8 du Code pénal, modifié par la loi SREN, punit de deux ans d’emprisonnement et de 30 000 euros d’amende la diffusion d’un contenu généré par IA imitant l’image ou la voix d’une personne sans son consentement et sans mention de son caractère artificiel.
Des comédiens de doublage français — parmi lesquels Richard Darbois, voix française de Harrison Ford, Françoise Cadol et Christophe Lemoine — ont obtenu le retrait de reproductions de leurs voix par la plateforme VoiceDub, après des mises en demeure. Un combat concret, mais mené au cas par cas, qui illustre les limites de l’approche individuelle.
Car le volume échappe à tout contrôle humain. Les 20 000 morceaux IA quotidiens sur Deezer représentent plus de sept millions de titres par an. Identifier les contrefaçons dans ce flux exige des outils technologiques que les créateurs individuels ne possèdent pas. Une solution française de détection des deepfakes musicaux existe, développée par les chercheurs de Deezer eux-mêmes, mais elle ne fait que mesurer un phénomène qu’aucune régulation ne contient encore à cette échelle.
La collision à venir
Regards Actuels a décrypté les obligations de l’AI Act européen, qui entre en application complète le 2 août 2026 : transparence des modèles, documentation des données d’entraînement, évaluation de conformité. Mais l’AI Act traite les systèmes d’IA comme des produits techniques, pas comme des outils de création. Le volet artistique — la question de savoir si une machine peut légitimement s’entraîner sur des millions d’œuvres humaines — reste le maillon manquant du dispositif européen.
La séquence législative de 2026 pourrait combler ce vide. Le rapport Voss fixe la direction, la proposition de loi française tente de montrer le chemin, et les procès en cours aux États-Unis — New York Times contre OpenAI, Getty contre Stability AI — pourraient créer des précédents transatlantiques.
Le 8 avril au Sénat, le vote dira si la France choisit de protéger ses créateurs ou d’attendre que l’Europe tranche à sa place.







