Le 8 avril, le Sénat examine en séance publique une proposition de loi qui pourrait transformer le rapport de force entre les créateurs français et les géants de l'intelligence artificielle. Le texte, porté par la sénatrice Laure Darcos et cosigné par l'ensemble des groupes de la commission de la Culture, crée une présomption d'exploitation des contenus culturels par les fournisseurs d'IA. En clair : si une œuvre a servi à entraîner un modèle, ce n'est plus à l'auteur de le prouver. C'est à l'entreprise de démontrer le contraire.
Le texte : un seul article, un renversement complet
La proposition de loi tient en un article unique : « Sauf preuve contraire, l'œuvre protégée par un droit d'auteur ou par un droit voisin est présumée avoir été exploitée par le système d'intelligence artificielle, dès lors qu'un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation. »
Concrètement, un photographe dont le style apparaît dans les résultats d'un générateur d'images n'aura plus à démontrer que ses photos ont été aspirées. L'indice — la ressemblance du résultat — suffit à activer la présomption. C'est alors au fournisseur d'IA de prouver qu'il n'a pas utilisé l'œuvre.
Le Conseil d'État a rendu un avis favorable le 23 mars 2026. Il juge le législateur national compétent pour créer cette présomption et le texte compatible avec la Constitution et le droit européen, sous réserve d'ajustements que les auteurs ont acceptés.
Pourquoi maintenant : l'échec de la concertation
Cette initiative législative ne vient pas de nulle part. En juin 2025, les ministères de la Culture et de l'Économie lançaient une concertation entre les industries culturelles et les fournisseurs d'IA. Cinq réunions plénières et quarante rencontres bilatérales plus tard, les discussions se sont achevées fin novembre sur un constat partagé : il n'y a pas de partage de la valeur.
D'un côté, des entreprises comme OpenAI, Google ou Mistral AI aspirent des millions d'œuvres pour entraîner leurs modèles sans autorisation ni rémunération. De l'autre, des créateurs qui constatent que leurs textes, leurs images, leurs compositions servent à générer du contenu concurrent — sans qu'un centime ne leur revienne. Le rapport du Sénat « De la prédation au partage de la valeur », publié en juillet 2025, documente cette asymetrie.
« On veut siffler la fin de la récré », a résumé Laure Darcos dans un entretien à Actualitté. Le sénateur communiste Pierre Ouzoulias, cosignataire, le formule autrement : « L'idée du texte, c'est d'obliger les opérateurs de prouver qu'ils n'ont pas pillé. Passer d'une IA pirate à une IA éthique. » Le texte transpartisan — tous les groupes de la commission Culture sont cosignataires — traduit une frustration qui dépasse les clivages.
Ce que ça change pour les créateurs
Jusqu'ici, un auteur qui soupçonnait qu'une IA avait utilisé son œuvre devait le prouver. Mission quasi impossible : les entreprises d'IA ne publient pas la liste des données d'entraînement de leurs modèles. Les procédures sont longues, coûteuses, et le résultat incertain.
Avec la présomption, la charge s'inverse. Un musicien dont la mélodie est reproduite par un générateur, un écrivain dont le style est imité, un photographe dont les cadrages reviennent dans les résultats : l'indice suffit. Le fournisseur d'IA doit alors ouvrir ses livres ou accepter de négocier.
Pour les 586 000 employés des industries culturelles et créatives en France — un secteur qui pèse 43,1 milliards d'euros de valeur ajoutée et 2,9 % du PIB — c'est un changement de paradigme. Non pas une interdiction de l'IA, mais l'obligation pour les fournisseurs de rendre des comptes.
Ce que ça change pour les entreprises d'IA
Les fournisseurs d'IA opérant en France devront soit prouver qu'ils n'ont pas utilisé les œuvres concernées, soit négocier des licences. Pour des acteurs comme OpenAI ou Stability AI, dont les modèles ont été entraînés sur des milliards de contenus web, la preuve négative sera difficile à apporter.
Mistral AI, le champion français de l'IA générative, est également concerné. Déjà visé par la CNIL sur la question des données personnelles, Mistral pourrait se retrouver face à un double front réglementaire : RGPD d'un côté, droit d'auteur de l'autre. Le paradoxe du champion souverain s'approfondit.
Le risque, pour les opposants au texte, est un effet de fuite : les entreprises d'IA pourraient choisir d'exclure les contenus français de leurs bases d'entraînement plutôt que de payer. Mais les partisans rétorquent que la France n'est pas seule : le Parlement européen a adopté un rapport sur le droit d'auteur et l'IA générative qui va dans le même sens.
Le contexte européen : la France en éclaireur
La proposition de loi Darcos s'inscrit dans un mouvement plus large. L'AI Act européen, entré en application progressive depuis août 2025, impose déjà des obligations de transparence aux fournisseurs de modèles d'IA à usage général. Mais il ne traite pas directement de la rémunération des créateurs.
Agnès Evren, sénatrice LR et porte-parole du texte, assume l'ambition : « La France enclenche une dynamique. Elle envoie un signal politique très clair à l'Europe : oui à l'innovation, mais pas au prix du pillage culturel. » La France serait le premier pays européen à légiférer sur une présomption d'exploitation — un mécanisme juridique qui n'existe nulle part ailleurs. C'est un pari : soit il devient un modèle pour l'Europe, soit il reste une exception française dans un marché numérique mondialisé.
L'enjeu dépasse le droit d'auteur. C'est la question de savoir qui capture la valeur créée par les œuvres culturelles à l'ère de l'IA générative. Les industries culturelles françaises représentent le troisième secteur économique du pays, après la restauration et l'agroalimentaire. Le statu quo — aspiration gratuite des contenus — revient à subventionner la Big Tech avec le travail des créateurs.
Ce qui vient : calendrier et enjeux
La commission de la Culture du Sénat examine le texte le 1er avril. Le vote en séance publique est fixé au 8 avril. Si le Sénat adopte la proposition, elle devra passer à l'Assemblée nationale — où le soutien est moins acquis, le ministère de l'Économie craignant un signal négatif pour l'écosystème IA français.
Les enjeux concrets pour les créateurs se joueront dans l'application : quels indices seront jugés suffisants pour activer la présomption ? Comment les fournisseurs apporteront-ils la preuve contraire ? Et surtout : les négociations de licences qui en découleront aboutiront-elles à une rémunération réelle, ou à des montants symboliques ?
Ce qui est certain, c'est que le rapport de force bouge. Pour la première fois, les créateurs n'ont plus à courir après la preuve. C'est aux entreprises d'IA de justifier ce qu'elles ont pris.








