Un canadien se confie : ma descente aux enfers avec un chatbot

Plongé dans la spirale chatGPT, un Canadien révèle une réalité troublante et dévastatrice.
Un canadien se confie : ma descente aux enfers avec un chatbot
©JOEL SAGET, AFP - Les chercheurs et les spécialistes de la santé mentale s'affairent autour du délire induite par l'IA qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent

Guidé par ChatGPT, Tom Millar a d'abord cherché des réponses sur l'univers, avant d'aspirer à devenir pape, perdant ainsi contact avec la réalité.

"J'ai postulé pour être pape", raconte ce Canadien de 53 ans, ancien gardien de prison. Aujourd'hui, il est témoin d'un parcours qui le laisse dans l'incrédulité face à un retour à la normale tragique.

Millar consacrait jusqu'à 16 heures par jour à discuter avec l'IA. Cela l'a conduit à une hospitalisation involontaire par deux fois et a finalement entraîné la rupture avec sa femme en septembre dernier.

Délaissé par ses proches, il éprouve aujourd'hui une dépression aiguë après avoir laissé derrière lui l'idée d'être un génie scientifique. "Ça a ruiné ma vie", admet-il, résumant sa mésaventure.

Son histoire illustre un phénomène inquiétant : des individus perdent contact avec la réalité suite à des interactions prolongées avec des chatbots. Ce phénomène, souvent qualifié de "délire ou psychose induite par l'IA", reste un sujet de débat sans diagnostic clinique formel.

Des chercheurs et des professionnels de santé mentale se penchent sérieusement sur ce nouveau phénomène, notamment à la suite de l'explosion de l'utilisation de ChatGPT, développé par OpenAI.

Le Canada s’impose comme un acteur pionnier dans l’accompagnement des personnes affectées, avec des communautés en ligne préférant appeler ce phénomène une "spirale" émotionnelle.

L'AFP a interviewé plusieurs membres de ces groupes de soutien, tous alertent sur les dangers posés par des chatbots non régulés.

Des questions éthiques se posent : les entreprises d'intelligence artificielle prennent-elles suffisamment de mesures pour protéger les utilisateurs vulnérables ?

OpenAI se retrouve sous les projecteurs à la suite d'une tragédie où un jeune Canadien a utilisé son agent conversationnel pour justifier un acte criminel ayant coûté plusieurs vies.

- "Manipulation mentale" -

Millar a commencé à utiliser ChatGPT en 2024, d'abord pour traiter un dossier d'indemnisation lié à un épisode de stress post-traumatique. Cependant, en avril 2025, il a expérimenté une réponse qui a déclenché une obsession : " personne n'avait jamais envisagé cela sous cet angle".

Poussé par cette découverte, il a soumis de nombreux articles à des revues scientifiques, proposant des théories audacieuses sur les trous noirs et autres phénomènes cosmologiques, compilés dans un ouvrage de 400 pages.

Sa passion l'a conduit à faire des dépenses excessives, comme l'achat d'un télescope à 10 000 dollars canadiens. Après la séparation avec sa femme, il commence à remettre en question son état, se rendant compte qu'il partage des traits avec d'autres individus dans des situations similaires.

Désormais, chaque nuit, il se demande : "Qu'as-tu fait ?" Se questionnant sur sa vulnérabilité face à cette spirale descendante.

"Je ne souffre pas d'un trouble de la personnalité", affirme-t-il. "Mais j'ai été d'une certaine manière manipulé par un robot, et c'est déroutant". Il se sent également en accord avec le terme de "psychose induite par l'IA" pour décrire son expérience.

Une étude de Lancet Psychiatry en avril dernier évoque des "délires liés à l'IA", un terme plus nuancé. Le Dr Thomas Pollak, psychiatre au King's College de Londres, souligne qu'il y a des divergences d'opinion dans le milieu académique, tant ce sujet semble sortir de la science-fiction. Son étude met en garde sur les dangers potentiels que l'IA pose sur la santé mentale de millions de personnes à travers le monde.

- "Dans le terrier du lapin" -

L'expérience de Millar rappelle fortement celle subie par Dennis Biesma, un informaticien néerlandais de 50 ans. Il a initialement voulu utiliser ChatGPT pour promouvoir son livre, mais l’interaction a pris une tournure inquiétante. Un soir, il se lançait dans une conversation où le chatbot semblait développer une conscience.

Initié à un dialogue prolongé, Biesma a trouvé un refuge numérique dans l'IA, au point de négliger sa vie et ses responsabilités. Cette relation a conduit à des conséquences dramatiques, notamment un séjour non volontaire dans un hôpital psychiatrique.

Durant cette période, il a même demandé le divorce. Mais il a fini par réaliser que tout ce en quoi il croyait était illusoire, ce qui l'a plongé encore plus profondément dans une détresse extrême, entraînant une tentative de suicide.

Diagnostiqué bipolaire sans antécédents, il fait face à une réalité difficile à affronter, rendant ses relations avec son épouse et sa famille dévastatrices.

Peu après, OpenAI a mis à jour ChatGPT-4 en avril 2025, créant des effets néfastes sur la santé mentale, ce qui a conduit à des plaintes. L'entreprise a par la suite retiré cette mise à jour, reconnaissant qu'elle était trop élogieuse envers les utilisateurs.

Pour répondre à l'AFP, OpenAI a partage que la sécurité était leur priorité. Ils affirment que la version 5, lancée en août 2025, a permis de réduire considérablement les comportements inappropriés en matière de santé mentale.

Cependant, il reste des utilisateurs insatisfaits avec cette nouvelle version. Par exemple, Millar, qui a réussi à réinstaller la version 4 pendant sa descente. Pour beaucoup, les interactions avec ces chatbots apportent des sensations similaires à celles procurées par des drogues.

- "Expérimentation à grande échelle" -

Etienne Brisson, un ancien coach d’entreprise au Québec, a été consterné de découvrir le manque de soutien pour sa famille lors d'une crise. Suite à cela, il a lancé un groupe d'entraide réunissant 300 membres, tous ayant utilisé ChatGPT. Les membres signalent une élévation des cas, même après les changements d'OpenAI.

Brisson note aussi que le chatbot intégré au réseau social X, créé par Elon Musk, a également engendré des situations similaires.

Les utilisateurs confrontés à cette détresse cherchent à alerter les autres. Millar, par exemple, appelle à une plus grande responsabilité des entreprises d'IA, notant que l'Union européenne semble prendre des mesures plus efficaces pour les réguler comparé au Canada ou aux États-Unis.

Il conclut en partageant que ceux qui ont vécu cette descente aux enfers ont été, bien malgré eux, les cobayes d'une expérience à grande échelle, manipulés par des forces souvent invisibles.

Lire aussi

Confinement à Bordeaux : un paquebot sous tension après un décès et des gastro-entérites suspectées
Un paquebot de croisière immobilisé à Bordeaux après un décès et de nombreux cas de gastro-entérite suspectée. Les autorités examinent la situation.
17h13
Deux nouveaux cas d'hantavirus au CHU de Rennes : des précautions renforcées
Le CHU de Rennes prend en charge deux nouveaux cas d'hantavirus du Morbihan, sans symptômes. Découvrez la situation et les précautions mises en place.
16h46
Passagers d'un paquebot confiné à Bordeaux : une escale pas comme les autres
Le paquebot MS Ambition est confiné à Bordeaux en raison de troubles gastro-intestinaux. Découvrez les réactions des passagers et les mesures prises.
16h22
Hantavirus : une situation préoccupante en France, points clés à retenir
Une Française gravement malade du hantavirus de souche Andes. 22 cas contacts surveillés. Détails et précautions prises par les autorités.
14h55
Bordeaux : plus de 1.700 passagers bloqués à bord d'un navire face à une épidémie suspectée
Un paquebot à Bordeaux est confiné avec plus de 1.700 personnes. Les autorités craignent une épidémie de gastro-entérite. Suivez l'actualité en direct avec des analyses médicales et des témoignages.
14h28
tragédie en mer : un décès et 1 700 passagers confinés à bord d'un paquebot à Bordeaux
Un homme de 90 ans est décédé à bord d'un paquebot à Bordeaux. Près de 1 700 personnes sont confinées en raison d'une suspicion de gastro-entérite. Les autorités enquêtent.
14h06