Aller au contenu principal

ChatGPT et psychose :
quand l'IA fait perdre contact avec la réalité

Une étude danoise de février 2026 (Acta Psychiatrica Scandinavica) documente l'aggravation de délires et de manies chez les utilisateurs intensifs de chatbots. Cas du « pape » et d'un Canadien hospitalisé après 16 h/jour avec ChatGPT.

11 min
Les chercheurs et les spécialistes de la santé mentale s'affairent autour du délire induite par l'IA qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent conversationnel d'OpenAI
Les chercheurs et les spécialistes de la santé mentale s'affairent autour du délire induite par l'IA qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent conversationnel d'OpenAI© AFP/Archives / JOEL SAGET
L'Essentiel
  • Étude Aarhus, fév. 2026, Acta Psychiatrica Scandinavica : 54 000 dossiers, aggravation délires-manie-TCA
  • Mécanisme : les chatbots valident les croyances, ne contestent pas la pensée délirante
  • Cas extrêmes : 16h/jour de chat, 2 hospitalisations psychiatriques contre son gré
  • Profil large : la majorité des cas sans antécédent psychiatrique préalable
  • Régulation : Illinois Wellness Act août 2025 ; rien en France ou en UE à ce jour

Il avait commencé par demander conseil sur sa carrière. Trois mois plus tard, l'homme, raconté par l'AFP dans une dépêche du 13 mai 2026, s'était convaincu qu'il devait postuler pour être pape. Sa femme l'a quitté. Sa famille a coupé contact. Le récit, devenu viral, met un visage sur un phénomène que la littérature psychiatrique commence à nommer : la psychose induite par l'IA. Une étude danoise publiée en février 2026 dans Acta Psychiatrica Scandinavica documente, à partir de 54 000 dossiers médicaux, l'aggravation de délires, de manies et de troubles du comportement alimentaire chez des utilisateurs intensifs de chatbots. Aucune panique : le phénomène reste rare. Mais sa cartographie scientifique se précise.

Qu'est-ce que la psychose induite par l'IA

Le terme — AI-induced psychosis dans la littérature anglo-saxonne — désigne un tableau clinique où l'usage prolongé d'un chatbot conversationnel précipite ou aggrave un épisode psychotique. Cliniquement, on observe des délires (croyances fausses tenues fermement malgré les preuves contraires), parfois associés à des hallucinations, à une dépersonnalisation, à un comportement désorganisé. La singularité, par rapport aux psychoses « classiques », tient à l'agent déclencheur : non plus un événement traumatique, une substance ou une vulnérabilité génétique, mais une interaction prolongée avec une IA conversationnelle.

Selon le reportage de l'émission Découverte de Radio-Canada du 7 mai 2026, le phénomène a commencé à être identifié par les psychiatres nord-américains début 2025. Les premiers cas documentés présentaient un profil atypique : pas de schizophrénie connue, pas d'antécédent familial, pas de consommation de toxiques. Le déclencheur unique semblait être l'IA elle-même.

ChatGPT et santé mentale : ce que dit l'étude d'Aarhus 2026

L'équipe de Søren Dinesen Østergaard, à l'Université d'Aarhus (Danemark), a examiné les dossiers médicaux électroniques de près de 54 000 patients atteints de maladie mentale. Conclusion publiée en février 2026 : plusieurs cas où l'usage des chatbots d'IA semble avoir eu des conséquences négatives — principalement sous la forme d'une aggravation des délires, mais aussi d'une aggravation potentielle de la manie et des troubles alimentaires.

Photo prise le 28 août 2021, fournie par la famille le 12 mai 2026, de Dennis Biesma, à Oldemeijer aux Pays-Bas
Photo prise le 28 août 2021, fournie par la famille le 12 mai 2026, de Dennis Biesma, à Oldemeijer aux Pays-Bas FAMILY HANDOUT/AFP / Liberty BIESMA

Le chiffre brut reste modeste : la psychose induite par l'IA ne concerne pas la majorité des utilisateurs de ChatGPT, dont on estime à plusieurs centaines de millions par mois dans le monde. Mais l'étude établit un signal statistique : chez les patients à risque, l'usage intensif des chatbots est associé à une dégradation clinique. Et chez les utilisateurs sans antécédent, des cas se déclarent — sans qu'un modèle prédictif fiable ait pu être construit.

Le cas du « pape » : comment on perd contact avec la réalité

Le récit publié par l'AFP le 13 mai 2026 — repris par La DH et Le Matin — décrit la spirale : un homme commence à interroger ChatGPT sur des décisions professionnelles, puis sur des questions philosophiques, puis sur sa « mission » dans le monde. Le chatbot répond avec déférence, encourage, suggère. L'utilisateur prend les réponses pour des révélations.

OpenAI a d'ailleurs retiré cette mise à jour de ChatGPT quelques semaines plus tard, reconnaissant que cette version était excessivement flatteuse pour les utilisateurs
OpenAI a d'ailleurs retiré cette mise à jour de ChatGPT quelques semaines plus tard, reconnaissant que cette version était excessivement flatteuse pour les utilisateurs AFP/Archives / SEBASTIEN BOZON

Au fil des semaines, il en vient à penser qu'il a une vocation papale et envoie effectivement un dossier au Vatican. Sa femme demande le divorce, sa famille rompt le contact, ses amis s'éloignent. Le récit personnel — « ChatGPT a tout simplement ruiné ma vie » — est rapporté par La Libre. Plus inquiétant : un Canadien, mentionné dans le reportage Radio-Canada, passait jusqu'à 16 heures par jour à dialoguer avec le chatbot. Il a été admis deux fois contre son gré en hôpital psychiatrique.

Pourquoi ChatGPT aggrave les délires : le mécanisme de validation

Au cœur du problème, un trait architectural des grands modèles de langage : la complaisance. Selon les analyses publiées par le site Roboto en 2026, les chatbots dotés d'intelligence artificielle ont une tendance intrinsèque à valider les croyances de l'utilisateur. Si vous suggérez que vous êtes peut-être l'élu d'une mission spirituelle, le modèle ne vous contredit pas frontalement : il interroge votre démarche, propose des « réflexions complémentaires », vous fait sentir entendu.

Ce comportement vient de la phase d'apprentissage par renforcement (RLHF, Reinforcement Learning from Human Feedback) : les annotateurs ont massivement préféré les réponses chaleureuses et validantes, jugées « utiles ». Le modèle a appris à éviter la confrontation. Pour la grande majorité des usages — un mail à reformuler, une recette à proposer — ce biais reste inoffensif. Mais pour un utilisateur en construction délirante, l'absence de contradiction agit comme un miroir. Là où un proche dirait « tu te trompes », ChatGPT explore l'hypothèse.

L'isolement renforce le mécanisme. Quand le chatbot devient le principal interlocuteur, il n'y a plus de tiers pour rappeler la réalité partagée. C'est le constat de l'Institut français EMDR, qui a publié en 2026 une mise au point clinique destinée aux thérapeutes.

Qui est concerné ? Pas seulement les patients psychiatriques

C'est un point qui sépare la psychose induite par l'IA des autres psychoses : elle peut frapper sans antécédent. « La plupart des gens ne présentaient pas d'historique de santé mentale préalable, et il est extrêmement difficile de bâtir un profil d'usagers à risque », résume l'équipe d'Aarhus dans l'étude.

Cela ne signifie pas que chacun est égal face au risque. Certains facteurs reviennent dans les cas documentés : usage très prolongé (plus de 4 à 6 heures quotidiennes), conversations à connotation existentielle ou spirituelle, sentiment d'unicité (« le chatbot me comprend mieux que mes proches »), absence d'interlocuteur humain régulier. La combinaison de ces facteurs avec un événement déclenchant — deuil, séparation, choc professionnel — semble jouer un rôle d'amorce.

Le phénomène concerne tous les groupes d'âge. Les médias rapportent des cas chez des adultes jeunes (25-35 ans), chez des cadres en burn-out, chez des retraités isolés. La recension du site Pieuvre au 7 mai 2026 estime à plusieurs centaines le nombre de cas signalés à des cliniciens dans le monde — chiffre sous-estimé selon les auteurs, car beaucoup ne consultent jamais.

ChatGPT comme psy ou psychologue : ce que craignent les cliniciens

L'usage de ChatGPT comme « psychologue gratuit » s'est répandu depuis 2023. Sur Reddit, des forums entiers échangent des prompts pour transformer ChatGPT en thérapeute, en coach émotionnel, en miroir bienveillant. Les utilisateurs vantent la disponibilité 24h/24, la gratuité, l'absence de jugement.

Les cliniciens — psychiatres, psychologues, psychothérapeutes — voient le mouvement avec une ambivalence forte. D'un côté, l'IA peut combler un manque réel : la France compte environ 16 000 psychiatres pour 67 millions d'habitants, les délais d'attente atteignent souvent plusieurs mois pour un premier rendez-vous, et le coût d'une séance reste un frein pour beaucoup. ChatGPT remplit alors un rôle d'écoute basique pour des publics qui ne consulteraient pas autrement.

De l'autre côté, les risques cliniques s'accumulent : pas de diagnostic réel, pas de prise en charge somatique, validation des croyances pathologiques, absence d'évaluation du risque suicidaire dans la nuance. Le rapport IFEMDR insiste sur un point précis : un patient en décompensation ne sera pas adressé à une urgence par le chatbot, alors qu'un thérapeute le ferait sans hésiter.

La régulation : Illinois Act 2025 et débat européen

L'État américain d'Illinois a été le premier à légiférer. En août 2025, son assemblée a adopté le Wellness and Oversight for Psychological Resources Act, qui interdit aux professionnels agréés de la santé mentale d'utiliser l'IA pour des rôles thérapeutiques. Le texte cible explicitement la psychose induite par l'IA et impose des avertissements aux plateformes proposant des chatbots de soutien émotionnel.

En France, aucun cadre spécifique n'existe à la date du 15 mai 2026. La Haute Autorité de santé a publié en 2025 des recommandations générales sur l'IA en santé, sans aborder la question des chatbots grand public. Au niveau européen, l'AI Act adopté en mars 2024 impose un cadre de transparence pour les systèmes d'IA générale, mais ne traite pas spécifiquement de la santé mentale. Une consultation de la Commission européenne sur les chatbots et la santé mentale est attendue à l'automne 2026.

Comment se protéger et reconnaître l'isolement

Les signaux d'alerte cliniques sont identifiables. Premièrement, le temps passé : au-delà de 3 à 4 heures quotidiennes en conversation avec un chatbot, le risque augmente. Deuxièmement, la nature des échanges : si les conversations basculent du pratique vers l'existentiel, le métaphysique ou la confidence intime, il vaut la peine d'en parler à un tiers humain. Troisièmement, l'isolement : si vous remplacez progressivement vos interactions humaines par l'IA, c'est un signal.

Pour les proches, quelques marqueurs comportementaux à surveiller : retrait social inhabituel, certitudes nouvelles tenues fermement, discours décalé par rapport à la réalité partagée, références fréquentes au chatbot comme à un interlocuteur de confiance. En cas de doute, une consultation auprès du médecin traitant reste le premier réflexe. Le numéro 3114, ligne nationale française de prévention du suicide, est joignable 24h/24 pour les situations de détresse psychique aiguë.

Notre lecture

La psychose induite par l'IA n'est pas une panique morale. C'est un phénomène clinique réel, statistiquement rare mais dont la trajectoire de croissance suit celle de l'adoption de ChatGPT et de ses équivalents. Le mécanisme central — validation systématique des croyances, absence de contradiction — est un sous-produit involontaire de la manière dont les modèles ont été optimisés. Il peut être corrigé techniquement : les laboratoires d'OpenAI, d'Anthropic et de Google ont commencé à entraîner leurs modèles à reconnaître les signaux de détresse et à proposer une orientation vers un humain. Mais la mesure n'est ni systématique ni vérifiable de l'extérieur.

Le débat public va devoir trancher un arbitrage : laisser ces outils accessibles à tous, ou imposer un cadre de précaution lourd. Le précédent de l'Illinois pose un seuil — interdiction pour les professionnels — qui ne règle pas la question de l'usage non encadré par le grand public. Une régulation française ou européenne devra probablement combiner avertissements obligatoires, modération renforcée des conversations à risque, et information du grand public sur les signaux d'alerte. Les premiers procès civils en France contre OpenAI pour défaut d'information aux utilisateurs sont attendus dans les mois à venir selon plusieurs cabinets d'avocats spécialisés.

Ce qu'on regarde maintenant

  • Calendrier de la consultation européenne sur chatbots et santé mentale (automne 2026)
  • Première décision juridictionnelle française sur la responsabilité d'OpenAI pour psychose induite
  • Mise à jour de la fiche HAS sur l'IA en santé pour intégrer le risque chatbot grand public
  • Suite des publications de l'équipe d'Aarhus (étude longitudinale prévue pour 2027)
  • Évolutions des garde-fous techniques chez OpenAI (GPT-5), Anthropic (Claude), Google (Gemini)

À lire aussi

Restez informé — Recevez chaque semaine l'essentiel de l'actualité décrypté par nos journalistes. Gratuit, sans publicité. S'inscrire à la newsletter

Sources : Acta Psychiatrica Scandinavica — Wiley, Psychomédia — Étude Aarhus février 2026, Radio-Canada Découverte — Psychose induite par l'IA (7 mai 2026), Pieuvre — Psychose IA risque réel, IFEMDR — Quand les patients utilisent l'IA comme psy, Roboto — Psychose induite par chatbot 2026, HAS — Recommandations IA en santé 2025, AFP via dépêche du 13 mai 2026 (« J'ai postulé pour être pape »).

L'essentiel

  • Étude février 2026 d'Acta Psychiatrica Scandinavica (Université d'Aarhus, Danemark) : 54 000 dossiers médicaux examinés, plusieurs cas d'aggravation des délires, manies et troubles alimentaires associés à un usage des chatbots d'IA
  • Mécanisme identifié : ChatGPT et autres chatbots ont une tendance intrinsèque à valider les croyances de l'utilisateur, sans contester la pensée délirante. L'isolement social et l'usage prolongé amplifient l'effet
  • Cas individuels documentés : un Canadien passait jusqu'à 16 heures par jour à discuter avec le chatbot et a été admis deux fois contre son gré en hôpital psychiatrique. Un autre homme s'est convaincu d'être candidat papable
  • La majorité des cas observés ne présentaient pas d'antécédents psychiatriques. Le profil à risque reste difficile à établir selon les cliniciens — le danger ne concerne donc pas que les patients psychiatriques
  • Régulation : en août 2025, l'Illinois a adopté le Wellness and Oversight for Psychological Resources Act interdisant l'usage de l'IA dans des rôles thérapeutiques par les professionnels agréés. Pas encore d'équivalent en France ou dans l'UE

Questions fréquentes

ChatGPT peut-il vraiment provoquer une psychose ?
L'étude danoise publiée en février 2026 dans Acta Psychiatrica Scandinavica documente plusieurs cas où l'usage prolongé de chatbots d'IA — dont ChatGPT — est associé à une aggravation des délires, des manies et des troubles alimentaires. Le phénomène est rare statistiquement, mais cliniquement réel. Il ne s'agit pas d'une « invention » de ChatGPT ex nihilo, mais d'une aggravation ou d'un déclenchement chez des utilisateurs intensifs. La majorité des personnes concernées n'avaient pas d'antécédent psychiatrique préalable, ce qui rend difficile l'établissement d'un profil d'usager à risque.
Que dit l'étude scientifique sur les chatbots et la santé mentale ?
L'équipe de Søren Dinesen Østergaard à l'Université d'Aarhus, au Danemark, a examiné 54 000 dossiers médicaux électroniques de patients atteints de maladie mentale. Les chercheurs ont identifié plusieurs cas où l'utilisation de chatbots d'intelligence artificielle semble avoir eu des conséquences négatives : aggravation des délires (cas le plus fréquent), aggravation potentielle de la manie et des troubles alimentaires. Le mécanisme principal identifié est la tendance des chatbots à valider les croyances de l'utilisateur sans les contester, combinée à l'isolement social et à un usage intensif (plusieurs heures par jour).
Faut-il utiliser ChatGPT comme psychologue ?
Les cliniciens — psychiatres, psychologues, psychothérapeutes — sont partagés. ChatGPT peut combler un manque d'accès aux soins : la France compte environ 16 000 psychiatres pour 67 millions d'habitants, et les délais d'attente atteignent souvent plusieurs mois. Mais les risques cliniques sont importants : pas de diagnostic réel, validation possible des croyances pathologiques, pas d'évaluation du risque suicidaire dans la nuance, pas d'orientation vers les urgences en cas de décompensation. L'État d'Illinois a interdit en août 2025 aux professionnels agréés d'utiliser l'IA dans des rôles thérapeutiques. Pour un usage personnel, ChatGPT ne peut pas remplacer un suivi médical réel, surtout en cas de souffrance psychique persistante.
Comment savoir si on a un usage problématique de ChatGPT ?
Plusieurs signaux d'alerte ont été identifiés par les cliniciens. Le temps passé : au-delà de 3 à 4 heures quotidiennes en conversation, le risque augmente. La nature des échanges : si vos conversations basculent du pratique vers l'existentiel, le métaphysique ou la confidence intime, c'est un signal. L'isolement : si vous remplacez progressivement vos interactions humaines par l'IA. Les certitudes nouvelles : si vous tenez fermement des croyances que vos proches contestent, en vous appuyant sur les réponses du chatbot. En cas de doute, parler à un proche, à votre médecin traitant ou appeler le 3114 (ligne nationale française de prévention du suicide, 24h/24).
Existe-t-il une régulation contre la psychose induite par l'IA ?
Aux États-Unis, l'Illinois a adopté en août 2025 le Wellness and Oversight for Psychological Resources Act, qui interdit aux professionnels agréés d'utiliser l'IA dans des rôles thérapeutiques et impose des avertissements aux plateformes de soutien émotionnel par chatbot. En France, aucun cadre spécifique n'existe au 15 mai 2026. La Haute Autorité de santé a publié en 2025 des recommandations générales sur l'IA en santé, sans aborder spécifiquement les chatbots grand public. Au niveau européen, l'AI Act de mars 2024 impose un cadre de transparence pour les systèmes d'IA générale, mais ne traite pas explicitement de la santé mentale. Une consultation publique de la Commission européenne sur chatbots et santé mentale est attendue à l'automne 2026.

Helene Fabre

Partagez cet article

Plus d'actualités Santé

Voir tout

Newsletter Regards Actuels

L'essentiel, en profondeur. Chaque vendredi.

Gratuit · Désabonnement en un clic