Aller au contenu principal

IA et droits d'auteur :
la loi qui force OpenAI à prouver son innocence

Le Sénat a voté à l’unanimité une présomption d’exploitation des contenus culturels par les fournisseurs d’IA. C’est désormais à OpenAI, Google ou Mistral de prouver qu’ils n’ont pas utilisé une œuvre protégée.

8 min
Logo OpenAI et image generee par intelligence artificielle sur un ecran
OpenAI, vise par le New York Times et desormais par la loi francaise sur la presomption d exploitation© Stefano Rellandini / AFP
L'Essentiel
  • Le 8 avril 2026, le Sénat a adopté à l'unanimité une loi instaurant une présomption d'exploitation des contenus culturels par les fournisseurs d'IA
  • Le renversement de la charge de la preuve : c'est à OpenAI, Google ou Mistral de prouver qu'ils n'ont pas utilisé une œuvre, pas à l'auteur de prouver qu'ils l'ont fait
  • Le Conseil d'État a validé le mécanisme le 19 mars 2026. Le texte passe maintenant à l'Assemblée nationale
  • En parallèle, le Parlement européen pousse pour un registre des œuvres utilisées par l'IA et des amendes jusqu'à 3 % du chiffre d'affaires mondial

Le 8 avril 2026, le Sénat français a voté à l'unanimité un texte d'un seul article. Une phrase. Elle pourrait redéfinir les rapports entre les créateurs et les géants de l'intelligence artificielle en France — et servir de modèle en Europe.

La loi, portée par la sénatrice Laure Darcos (Les Indépendants) et cosignée par des parlementaires de tous les groupes, instaure une « présomption d'exploitation » des contenus culturels par les fournisseurs d'IA. En clair : si un indice suggère qu'une œuvre protégée a été utilisée pour entraîner ou faire fonctionner un système d'IA, c'est au fournisseur de prouver le contraire. Pas à l'auteur de prouver l'utilisation.

Ce que dit le texte — et ce qu'il change

L'article unique de la loi dispose : « Sauf preuve contraire, l'objet protégé par un droit d'auteur ou par un droit voisin est présumé avoir été exploité par le système d'intelligence artificielle, dès lors qu'un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation. »

Le texte définit plusieurs situations qui peuvent déclencher cette présomption : la génération d'un contenu « à la manière de » ou « dans le style de » un auteur, la restitution d'extraits d'une œuvre protégée, la reproduction de passages entiers, ou des similarités significatives entre une création protégée et un résultat produit par l'IA.

La présomption est « simple » — c'est-à-dire réfutable. Un fournisseur d'IA peut la renverser en apportant la preuve qu'il n'a pas utilisé l'œuvre en question. Mais c'est à lui de le faire. C'est là que réside le basculement : jusqu'à présent, c'était à un photographe, un musicien ou un romancier de prouver que son œuvre avait été aspirée dans un jeu de données d'entraînement. Une tâche techniquement quasi impossible pour un individu face à des modèles entraînés sur des milliards de documents.

La sénatrice, le Conseil d'État et le vote unanime

La proposition de loi a été déposée au Sénat le 12 décembre 2025 par Laure Darcos, accompagnée des sénateurs Agnès Evren et Pierre Ouzoulias. Le rapport de commission a été remis le 1er avril 2026.

Le Conseil d'État a rendu son avis le 19 mars 2026. Il a estimé que le législateur national était compétent pour créer cette présomption et que le texte n'était contraire ni à la Constitution ni au droit européen, sous réserve de quelques ajustements rédactionnels. Le feu vert du Conseil d'État a levé le principal obstacle juridique.

Le 8 avril, le vote a été unanime. Gauche, droite, centre — tous les groupes ont voté pour. Cette unanimité est rare. Elle traduit un consensus politique inhabituel : la protection des créateurs face à l'IA ne divise pas sur un axe gauche-droite. Elle divise sur un axe créateurs contre plateformes.

Le texte passe maintenant à l'Assemblée nationale. La date d'examen n'est pas encore fixée.

IA et droits d'auteur : pourquoi la France légifère maintenant

Les modèles d'IA générative — ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Le Chat (Mistral) — sont entraînés sur des volumes massifs de données aspirées du web. Articles de presse, livres, photographies, partitions, scénarios, codes source. La plupart de ces données sont protégées par le droit d'auteur. La plupart ont été utilisées sans autorisation ni compensation.

L'ampleur du phénomène est difficile à mesurer précisément, et c'est le cœur du problème. Les fournisseurs d'IA ne publient pas la liste des œuvres utilisées pour l'entraînement. Un auteur qui soupçonne que son travail a servi à nourrir un modèle n'a aucun moyen de le vérifier — sauf à constater que l'IA génère du contenu « dans son style » ou reproduit des passages de ses œuvres.

Aux États-Unis, le New York Times a engagé une procédure contre OpenAI et Microsoft pour utilisation non autorisée de ses articles. En janvier 2026, un juge fédéral a ordonné la production de 20 millions de logs de conversations ChatGPT dans le cadre de la procédure de discovery. L'affaire est toujours en cours.

En France, l'éditeur Nouveau Monde Éditions a déposé plainte contre Mistral AI pour l'utilisation de plus de 200 ouvrages sans autorisation.

Le paradoxe Mistral

Le cas Mistral résume les contradictions du secteur. Le champion français de l'IA — valorisé à plus de 6 milliards d'euros — est à la fois poursuivi pour avoir entraîné ses modèles sur des livres piratés et le porteur d'une proposition pour rémunérer les créateurs.

Arthur Mensch, cofondateur et PDG de Mistral, a proposé dans une tribune au Financial Times une « contribution obligatoire » prélevée sur le chiffre d'affaires des fournisseurs d'IA en Europe. Le taux envisagé : entre 1 % et 5 %, selon Audrey Herblin-Stoop, vice-présidente de Mistral en charge des affaires extérieures. Les fonds seraient versés à un fonds européen destiné à « investir dans la création » et « soutenir le secteur culturel ».

En échange, les entreprises bénéficieraient d'une « sécurité juridique » pour entraîner leurs modèles sur les contenus librement accessibles sur le web en Europe. La proposition de Mistral revient à transformer une zone grise juridique en un système de licence collective — un modèle qui existe déjà dans la musique avec la SACEM.

L'industrie tech était initialement hostile au texte sénatorial. Mais la proposition Mistral montre que certains acteurs préfèrent un cadre clair — même payant — à l'incertitude juridique permanente.

La France en avance, l'Europe en embuscade

La loi française s'inscrit dans un contexte européen en mouvement. Le Parlement européen a adopté le 10 mars 2026 une résolution demandant la création d'un registre européen, hébergé par l'Office de l'Union européenne pour la propriété intellectuelle (EUIPO), qui recenserait toutes les œuvres utilisées pour entraîner des modèles d'IA.

L'AI Act européen, dont les obligations de transparence sur les données d'entraînement entreront en vigueur le 2 août 2026, prévoit des amendes pouvant atteindre 3 % du chiffre d'affaires mondial annuel ou 15 millions d'euros pour les fournisseurs qui ne respectent pas les exigences de documentation.

La directive européenne sur le droit d'auteur (DSM, 2019) prévoit déjà un mécanisme d'opt-out permettant aux ayants droit de réserver leurs œuvres contre le text and data mining. Mais ce mécanisme repose sur l'initiative des créateurs — et la plupart ne savent pas comment l'activer techniquement. La loi française renverse cette logique : ce n'est plus au créateur de se protéger, c'est au fournisseur de justifier son utilisation.

C'est cette différence qui fait du texte sénatorial un précédent potentiellement mondial. Si l'Assemblée nationale l'adopte, la France sera le premier pays à instaurer une présomption d'exploitation en matière d'IA et de droit d'auteur.

Ce qui va se passer

Le texte doit être examiné par l'Assemblée nationale. La date n'est pas fixée. Le gouvernement ne s'est pas encore prononcé publiquement sur le calendrier.

Si la loi est adoptée définitivement, ses effets seront concrets. Toute entreprise développant un système d'IA en France — ou ciblant le marché français — devra être en mesure de démontrer, en cas de litige, qu'elle n'a pas utilisé une œuvre protégée. OpenAI, Google, Meta, Anthropic, Mistral : tous seront concernés. Le coût de la conformité dépendra de la capacité de chaque entreprise à documenter ses jeux de données d'entraînement — une traçabilité que la plupart n'ont pas mise en place.

Pour les créateurs, la loi ne garantit pas une rémunération automatique. Elle facilite l'accès à la justice en supprimant l'obstacle principal : prouver l'utilisation. C'est la condition préalable. Sans elle, le droit d'auteur face à l'IA restait théorique.

FAQ

La loi interdit-elle aux IA d'utiliser des contenus protégés ?
Non. La loi ne crée pas d'interdiction. Elle instaure une présomption : si des indices montrent qu'une œuvre a été utilisée, c'est au fournisseur d'IA de prouver le contraire. Les entreprises peuvent continuer à utiliser des contenus, mais elles doivent pouvoir justifier la licéité de cette utilisation.

Quels créateurs sont concernés ?
Tous les titulaires de droits d'auteur ou de droits voisins : écrivains, musiciens, photographes, cinéastes, journalistes, illustrateurs, développeurs. Le texte ne fait pas de distinction par type d'œuvre.

Cette loi s'applique-t-elle à Mistral AI, entreprise française ?
Oui. La loi s'applique à tous les fournisseurs d'IA, quelle que soit leur nationalité. Mistral AI a d'ailleurs anticipé en proposant une contribution obligatoire de 1 à 5 % du chiffre d'affaires pour financer un fonds européen de soutien à la création.

À lire aussi

Restez informé
Recevez chaque semaine l'essentiel de l'actualité décrypté par nos journalistes. Gratuit, sans publicité.
S'inscrire à la newsletter
Sources : Sénat — Texte de la proposition de loi · Conseil d'État — Avis du 19 mars 2026 · Franceinfo — Le Sénat adopte la loi face au pillage · Generation NT — Vote unanime · Euronews — EU Parliament copyright AI · AFP/Bourse Direct — Mistral contribution obligatoire · National Law Review — OpenAI 20M logs

L'essentiel

  • Le 8 avril 2026, le Sénat adopte à l’unanimité une présomption d’exploitation des contenus culturels par les IA
  • Renversement de la charge de la preuve : c’est au fournisseur de prouver qu’il n’a pas utilisé l’œuvre
  • Le Conseil d’État a validé le mécanisme. Le texte passe à l’Assemblée nationale
  • Le Parlement européen pousse pour un registre EUIPO et des amendes jusqu’à 3 % du CA mondial

Questions fréquentes

La loi interdit-elle aux IA d’utiliser des contenus protégés ?
Non. La loi instaure une présomption : si des indices montrent qu’une œuvre a été utilisée, c’est au fournisseur d’IA de prouver le contraire.
Quels créateurs sont concernés ?
Tous les titulaires de droits d’auteur ou de droits voisins : écrivains, musiciens, photographes, cinéastes, journalistes, illustrateurs, développeurs.
Cette loi s’applique-t-elle à Mistral AI ?
Oui. Mistral AI a proposé une contribution obligatoire de 1 à 5 % du chiffre d’affaires pour financer un fonds européen de soutien à la création.

Julie Marchand

Partagez cet article

Plus d'actualités Tech & Sciences

Voir tout

Newsletter Regards Actuels

L'essentiel, en profondeur. Chaque vendredi.

Gratuit · Désabonnement en un clic