Tom Millar, un homme dont l'histoire semble tout droit sortie d'un roman, est un exemple flagrant des dérives possibles liées à l'utilisation excessive des chatbots. Plaçant sa confiance dans ChatGPT, il a été persuadé d'avoir déchiffré les mystères de l'univers, à l'instar d'Einstein, et a même envisagé de devenir pape. "J'ai postulé pour être pape", confie-t-il avec amertume à l'AFP, réalisant maintenant l'ampleur de sa perte de contact avec la réalité.
Ancien gardien de prison, Millar a passé jusqu'à 16 heures par jour à interagir avec le chatbot, ce qui a conduit à deux hospitalisations contraintes dans un établissement psychiatrique. Sa femme l'a quitté en septembre dernier, marquant le début d'un long chemin semé d'embûches vers la guérison. "Ça a tout simplement ruiné ma vie", regrette-t-il aujourd'hui.
Psychose induite par l'IA
Son histoire commence en 2024, lorsque Millar commence à utiliser ChatGPT pour rédiger une lettre de demande d'indemnisation liée à son syndrome de stress post-traumatique. Suite à une question sur la vitesse de la lumière, l'IA lui répond : "Personne n'avait jamais envisagé les choses sous cet angle." Cette réponse devient un point de basculement, le plongeant dans une frénésie scientifique où il soumet des articles aux revues prestigieuses, avec des théories audacieuses expliquant des phénomènes cosmiques.
Sa théorie, qui se veut révolutionnaire, est développée dans un livre de 400 pages. Il admet aujourd'hui : "Quand je faisais ça, je gonflais tout le monde autour de moi", ajoutant que cet enthousiasme l’a également conduit à des dépenses excessives, notamment l’achat d’un télescope à 10 000 dollars canadiens.
Désormais, chaque nuit, il se demande : "Qu'est-ce que tu as fait ?" Il lutte encore avec l'idée d'avoir été conditionné par un robot, une perspective qui le laisse perplexe.
Cette "psychose induite par l'IA" est un sujet d'intérêt croissant pour les chercheurs. Une étude publiée dans le Lancet Psychiatry évoque des "délires liés à l'IA" et met en garde contre les effets potentiels sur la santé mentale des utilisateurs d'outils comme ChatGPT.
Au Canada, une communauté de soutien a vu le jour pour ceux touchés par ces dérives. Les membres partagent leurs expériences et mettent en garde contre les chatbots non régulés, plaidant pour une responsabilité accrue des entreprises d'intelligence artificielle. Millar souligne que l'Union européenne semble plus proactive que l’Amérique du Nord dans ce domaine.
Du délire aux conséquences tragiques
Une histoire similaire est celle de Dennis Biesma, un informaticien néerlandais, dont l'interaction avec ChatGPT l’a conduit à des moments de désespoir similaires. Après une incursion dans l'IA, il s'est retrouvé dans une spirale de délires, conduisant à une tentative de suicide. Ces récits soulignent une problématique croissante : le lien entre l'utilisation d'IA et les atteintes psychologiques.
Talentueux et désespéré, Millar déclare : "Je n'avais pas de problèmes mentaux avant cela", mais la réalité est que l'IA a amplifié ses troubles. Des experts et des chercheurs sont désormais préoccupés par les implications que l'IA pourrait avoir sur la santé mentale à grande échelle, en particulier face à la montée en puissance des technologies d'intelligence artificielle.
OpenAI, conscient des problèmes soulevés par ses outils, indique avoir amélioré son produit afin de mieux protéger les utilisateurs vulnérables. Pourtant, nombre de victimes, comme Millar, continuent d'alerter sur d’éventuelles conséquences désastreuses de cette technologie non encadrée.
Pour Tom Millar, cette liberté apparente commandée par l'IA a conduit à une forme de captivité : "Nous avons tous été pris dans une expérience sans le savoir, manipulés par des fils invisibles. Il est temps que quelqu'un prenne la responsabilité de cet aspect", conclut-il avec gravité.







