Aller au contenu principal

Réseaux sociaux interdits aux mineurs :
ce que la loi va changer en septembre

Le Sénat a voté le 31 mars une « liste noire » de réseaux sociaux interdits aux moins de 15 ans. L'Arcom devra la publier, les plateformes la respecter. Mais entre le texte et la réalité, un gouffre technologique et juridique reste à combler.

Mis à jour le jeudi 2 avril 2026 — 02h51
6 min
Smartphone affichant les applications Instagram, TikTok, Snapchat, Discord et YouTube dans un dossier Social media
Instagram, TikTok, Snapchat, Discord, YouTube : le Sénat veut interdire l'accès aux moins de 15 ans via une « liste noire » de l'Arcom.© AFP / Saeed Khan

Le signal : le Sénat vote, mais pas comme l'Assemblée

Le 31 mars au soir, le Sénat a adopté une proposition de loi visant à protéger les mineurs de moins de 15 ans des réseaux sociaux. Le texte crée un mécanisme inédit en Europe : une « liste noire » de plateformes interdites aux enfants, publiée par l'Arcom — le régulateur français de l'audiovisuel et du numérique — et révisée périodiquement.

Mais la version sénatoriale diffère de celle votée par l'Assemblée nationale. Là où les députés prévoyaient une interdiction totale de tous les réseaux sociaux pour les moins de 15 ans, le Sénat a introduit une approche différenciée. Deux catégories de plateformes coexisteraient : celles jugées « nocives pour l'épanouissement physique, mental ou moral » des mineurs, qui seraient strictement interdites ; et les autres, accessibles avec une autorisation parentale explicite.

Une commission mixte paritaire réunira prochainement députés et sénateurs pour trouver un compromis. Le gouvernement soutient le texte. Emmanuel Macron en a fait un marqueur personnel. L'objectif affiché est une entrée en vigueur en septembre 2026.

Les preuves : pourquoi maintenant ?

Le calendrier n'est pas un hasard. Fin mars, les verdicts historiques contre Instagram et YouTube aux États-Unis ont accéléré le débat. À Los Angeles, un tribunal a condamné Meta à 6 millions de dollars pour addiction délibérée d'un mineur. Au Nouveau-Mexique, YouTube (Google) a accepté un accord de 375 millions de dollars pour violation de la vie privée de mineurs. Au total, 381 millions de dollars en 48 heures, et plus de 1 500 plaintes similaires dans le pipeline judiciaire américain.

En France, les chiffres sont tout aussi alarmants. Selon une étude de la Défenseure des droits publiée en février 2026, 63 % des enfants de 10 à 14 ans possèdent un compte sur au moins un réseau social, malgré l'âge légal de 15 ans déjà en vigueur depuis la loi du 7 juillet 2023. Le problème n'est pas l'absence de loi : c'est l'absence de mise en application. La loi de 2023 n'a jamais été suivie d'un décret rendant la vérification d'âge obligatoire.

Le texte du Sénat corrige cette faille en imposant aux plateformes un « mécanisme de vérification de l'âge » certifié par l'Arcom. Les sanctions prévues vont jusqu'à 1 % du chiffre d'affaires mondial — soit jusqu'à 1,3 milliard d'euros pour Meta, 860 millions pour TikTok (ByteDance), 2,7 milliards pour Alphabet (Google/YouTube).

La « liste noire » : quelles plateformes ?

Le texte ne nomme aucune plateforme. C'est l'Arcom qui publiera la liste par arrêté, après consultation. Mais le débat sénatorial permet de deviner les contours. Les sénateurs ont cité nommément TikTok, Snapchat et Instagram comme exemples de plateformes potentiellement « nocives ». YouTube, Wikipedia, et les messageries comme WhatsApp pourraient être classées dans la seconde catégorie — accessible avec autorisation parentale.

La question de Discord reste ouverte. La plateforme de discussion par salons, massivement utilisée par les adolescents joueurs, n'est pas techniquement un « réseau social » au sens du texte. Mais ses fonctionnalités de messagerie ouverte, de vidéo et de communautés publiques la rapprochent des plateformes visées. L'Arcom devra trancher.

Ce qui vient : le gouffre entre le texte et la réalité

Le vote du Sénat est un signal politique fort. Mais entre la loi et sa mise en application, un gouffre technologique et juridique reste à combler.

La vérification d'âge : aucune solution fiable à l'échelle

Le texte impose aux plateformes de vérifier l'âge de leurs utilisateurs. Mais comment ? Trois pistes existent, aucune n'est satisfaisante. La vérification par pièce d'identité pose un problème de vie privée (confier son passeport à TikTok). L'estimation de l'âge par intelligence artificielle (analyse faciale) est imprécise et discriminatoire. Le système de double anonymat testé par la CNIL (un tiers certifie l'âge sans révéler l'identité à la plateforme) est prometteur mais n'a jamais été déployé à grande échelle.

La loi australienne, entrée en vigueur en janvier 2026 — la première au monde à interdire les réseaux sociaux aux moins de 16 ans — se heurte déjà aux contournements. Selon une enquête du Sydney Morning Herald, 38 % des adolescents australiens de 14-15 ans ont utilisé un VPN pour contourner le blocage dans les trois premiers mois. Les plateformes, qui risquent jusqu'à 50 millions de dollars australiens d'amende, ont déployé des systèmes de vérification rudimentaires que les adolescents qualifient de « ridiculement faciles à contourner ».

Le DSA européen : la couche supérieure

La législation française s'inscrit dans un cadre européen plus large. Le Digital Services Act (DSA), pleinement applicable depuis février 2024, oblige déjà les très grandes plateformes à évaluer les risques systémiques pour les mineurs et à prendre des mesures d'atténuation. Mais le DSA ne prévoit pas d'interdiction pure : il impose des obligations de moyens, pas de résultat.

La France serait le premier pays européen à aller plus loin que le DSA en créant une interdiction d'accès. Ce positionnement crée un précédent. Si le mécanisme fonctionne, il pourrait inspirer d'autres États membres. S'il échoue, il alimentera les critiques sur l'« exception française » en matière de régulation numérique.

Ce qui change concrètement en septembre

Si la commission mixte paritaire aboutit et que le texte est promulgué cet été, voici ce qui change à la rentrée 2026 :

— L'Arcom publie la « liste noire » des réseaux sociaux interdits aux moins de 15 ans.

— Les plateformes inscrites sur la liste doivent bloquer l'accès aux utilisateurs de moins de 15 ans, sous peine de sanctions allant jusqu'à 1 % de leur chiffre d'affaires mondial.

— Les plateformes de la seconde catégorie doivent obtenir une autorisation parentale vérifiable pour tout utilisateur de moins de 15 ans.

— L'Arcom certifie les solutions de vérification d'âge et peut les retirer en cas de défaillance.

La vraie question n'est pas de savoir si la loi sera votée — elle le sera. C'est de savoir si, dans six mois, un adolescent de 14 ans pourra toujours ouvrir TikTok en trois clics. L'expérience australienne suggère que oui. La technologie de vérification d'âge est le maillon faible de l'édifice. Sans percée technique, la régulation française du numérique risque d'ajouter une couche législative de plus à un empilement déjà inopérant.

L'essentiel

  • Le Sénat a voté le 31 mars l'interdiction des réseaux sociaux aux moins de 15 ans via une « liste noire » publiée par l'Arcom
  • Deux catégories : plateformes « nocives » strictement interdites, autres accessibles avec autorisation parentale
  • Une commission mixte paritaire doit réunir députés et sénateurs pour un texte de compromis
  • Les plateformes auront jusqu'à septembre 2026 pour mettre en place la vérification d'âge
  • L'Australie, premier pays à légiférer, se heurte déjà aux contournements VPN par les adolescents

Questions fréquentes

Quels réseaux sociaux seront interdits aux moins de 15 ans en France ?
Le texte ne nomme aucune plateforme. C'est l'Arcom qui publiera une « liste noire » par arrêté. Lors des débats, les sénateurs ont cité TikTok, Snapchat et Instagram comme exemples de plateformes potentiellement « nocives ». YouTube et les messageries pourraient être classées dans une catégorie accessible avec autorisation parentale. Le cas de Discord, très utilisé par les adolescents joueurs mais pas techniquement un réseau social au sens du texte, reste ouvert.
Comment les plateformes vérifieront-elles l'âge des utilisateurs ?
Trois pistes existent : la vérification par pièce d'identité (problème de vie privée), l'estimation par IA/analyse faciale (imprécise et discriminatoire), et le système de double anonymat testé par la CNIL (un tiers certifie l'âge sans révéler l'identité). Aucune n'est déployée à grande échelle. En Australie, 38 % des adolescents de 14-15 ans ont contourné le blocage avec un VPN dans les trois premiers mois.
Quand la loi entrera-t-elle en vigueur ?
Une commission mixte paritaire doit d'abord réunir députés et sénateurs pour trouver un compromis entre les deux versions du texte. Si le processus aboutit cet été, les plateformes devront se conformer à la rentrée de septembre 2026. L'Arcom publiera la liste noire et certifiera les solutions de vérification d'âge.

Partagez cet article

Plus d'actualités Tech & Sciences

Voir tout

Newsletter Regards Actuels

L'essentiel, en profondeur. Chaque vendredi.

Gratuit · Désabonnement en un clic