Le chiffre est spectaculaire : 48 % des Français de 18 ans et plus ont utilisé au moins une fois un outil d'intelligence artificielle générative en 2026. Ils étaient 20 % en 2024. En deux ans, l'IA est passée de curiosité technologique à réflexe quotidien pour près de la moitié de la population. Mais pendant que l'adoption s'accélérait, la protection des données de ces utilisateurs est restée au point mort.
Le signal : une adoption sans équivalent
Le baromètre du numérique 2026, publié par l'Arcep, l'Arcom et l'Agence nationale de la cohésion des territoires, révèle une bascule générationnelle inédite. Chez les 18-24 ans, le taux d'utilisation atteint 85 %. Chez les 25-39 ans, il dépasse 65 %. À l'autre bout du spectre, les plus de 70 ans ne sont que 17 % à avoir essayé ces outils.
ChatGPT d'OpenAI reste le leader incontesté avec 79 % de parts d'usage en France. Mais la concurrence s'organise : Claude (Anthropic), Gemini (Google) et Le Chat de Mistral AI grignotent du terrain. Au niveau mondial, la part de ChatGPT est passée de 86 % à 64,5 % en un an — un recul qui profite à une dizaine de concurrents.
Les usages se sont diversifiés. Le baromètre montre que les Français utilisent l'IA pour rédiger des textes (42 %), chercher des informations (38 %), traduire (31 %), générer des images (24 %) et résumer des documents (22 %). Ce n'est plus un jouet pour technophiles. C'est un outil de travail et de vie quotidienne.
Les preuves : quand le champion national trébuche
Pendant que les Français adoptaient l'IA en masse, une question restait sans réponse claire : que deviennent les données qu'ils confient à ces systèmes ? La réponse est arrivée par un chemin inattendu — une plainte visant Mistral AI, la startup française la plus médiatisée du secteur.
La plainte, déposée auprès de la CNIL, porte sur un point précis : pour demander que ses données personnelles ne soient pas utilisées pour entraîner le modèle Le Chat, un utilisateur devait souscrire un abonnement payant à 14,99 euros par mois. Les utilisateurs gratuits n'avaient pas accès à cette option. Après la plainte, Mistral a partiellement corrigé le tir en rendant l'opt-out accessible à tous — mais les données déjà utilisées pour l'entraînement ne sont pas supprimées rétroactivement.
« Le problème n'est pas que Mistral ait fait une erreur », analyse un spécialiste du droit du numérique interrogé par L'Usine Digitale. « C'est que pendant des mois, des millions d'utilisateurs ont alimenté un modèle sans savoir qu'ils le faisaient — et sans pouvoir s'y opposer gratuitement. »
Le paradoxe est saisissant. La France se positionne comme championne de l'IA souveraine — l'État vient de déployer un assistant IA basé sur Mistral pour 30 000 agents publics. Mais dans le même temps, le régulateur français vise la même entreprise pour non-conformité au RGPD. Le champion national est à la fois le fer de lance et le premier contrevenant.
La fracture invisible : payer pour protéger ses données
Le baromètre du numérique révèle un chiffre moins commenté : 19 % des Français qui n'utilisent pas l'IA invoquent la crainte pour leurs données personnelles comme raison principale. Mais parmi ceux qui l'utilisent, une majorité ne sait pas comment leurs données sont traitées.
L'épisode Mistral met en lumière une fracture d'un type nouveau. Jusqu'ici, la fracture numérique se mesurait en termes d'accès : avoir ou ne pas avoir internet, un smartphone, une compétence. Désormais, elle se mesure aussi en termes de droits : pouvoir ou ne pas pouvoir contrôler ses données. Et ce contrôle a un prix.
Chez OpenAI, l'opt-out de l'entraînement est gratuit depuis 2023 — mais il faut savoir où le trouver (dans les paramètres, rubrique « Contrôles de données »). Chez Google (Gemini), la politique varie selon les produits. Chez Mistral, il a fallu une plainte CNIL. Le paysage est un maquis de conditions générales que 87 % des utilisateurs ne lisent jamais, selon une enquête de la Commission européenne.
Ce décalage entre la vitesse d'adoption et la lenteur de la régulation n'est pas propre à la France. Mais la France cumule un facteur aggravant : un écosystème IA national qu'elle promeut activement tout en étant incapable d'en garantir la conformité. Nous avions identifié un décalage similaire dans le secteur de la cybersécurité, où 75 % des attaques ciblent des PME qui n'ont pas les moyens de se protéger.
Ce qui vient : quatre mois pour se conformer
Le calendrier se resserre. Le 2 août 2026, l'AI Act européen entre pleinement en vigueur. Ce règlement impose des obligations de transparence, d'évaluation des risques et de protection des données à tous les fournisseurs d'IA opérant sur le marché européen. Quinze autorités nationales doivent être désignées pour le superviser.
Pour les 1 114 startups IA françaises recensées par France Digitale, le compte à rebours a commencé. Selon une étude du Digital Omnibus, moins de 10 % des entreprises françaises se considèrent prêtes à se conformer à l'AI Act. Le retard est d'autant plus problématique que les sanctions prévues atteignent 35 millions d'euros ou 7 % du chiffre d'affaires mondial — de quoi mettre en péril des startups encore fragiles.
Pendant ce temps, 48 % des Français continuent d'utiliser l'IA chaque jour. Ils confient à ces systèmes leurs questions de santé, leurs courriers professionnels, leurs recherches personnelles. Ils ne savent pas, pour la plupart, ce qu'il advient de ces données. Et la réponse, pour l'instant, dépend du montant qu'ils sont prêts à payer.








