
Un Sexagénaire Délirant Arrive Aux Urgences Après Avoir Suivi Les Conseils De ChatGPT
La scène est glaçante. Un homme de 60 ans débarque aux urgences dans un état de confusion mentale totale. Paranoïa, hallucinations, délire : tous les signaux d’alarme clignotent rouge. Les soignants tentent de l’approcher, mais le patient refuse catégoriquement de boire l’eau qu’on lui propose.
« Il prétendait que son voisin l’empoisonnait peut-être », relate le rapport médical publié dans l’Annals of Internal Medicine. L’homme multiplie les restrictions alimentaires et sombre dans une méfiance maladive. Malgré une soif intense qui le torture, il repousse systématiquement les verres d’eau. Sa peur : l’eau est contaminée.
Le personnel hospitalier assiste, impuissant, à une escalade inquiétante. Dans les 24 heures suivant son admission, le sexagénaire tente l’impossible : s’évader de l’hôpital. Les médecins n’ont d’autre choix que de le traiter pour psychose, sans encore comprendre l’origine de cette décompensation brutale.
Une fois stabilisé sous traitement psychiatrique, l’homme révèle d’autres symptômes troublants. Acné faciale sévère, soif excessive impossible à étancher, insomnies chroniques : le puzzle médical se complexifie. Les analyses sanguines vont bientôt révéler la véritable nature de cette intoxication mystérieuse, dont l’origine remonte à une consultation en ligne avec une intelligence artificielle.

Le Diagnostic Révèle Une Intoxication Au Brome 226 Fois Supérieure À La Normale
Les résultats tombent comme un couperet. Les analyses révèlent une concentration sérique de brome de 2260 mg/L dans le sang du patient. Un chiffre qui glace les médecins : les taux normaux sont inférieurs à 10 mg/L. L’homme présente une intoxication au brome 226 fois supérieure à la normale.
Le diagnostic s’impose : bromisme. Cette intoxication rare, largement documentée au XIXe siècle quand les sels de brome servaient de sédatifs, ressurgit en 2024 dans un contexte inattendu. Les symptômes s’emboîtent parfaitement : l’acné faciale qui défigure le visage, cette soif dévorante impossible à calmer, les nuits blanches qui s’enchaînent.
« Le patient a déclaré avoir remplacé le sel de table par du bromure de potassium en poudre », révèle l’équipe médicale. La source de l’empoisonnement émerge enfin. L’homme a substitué son sel de cuisine habituel par un produit chimique non destiné à la consommation alimentaire. Une poudre blanche qui ressemble au sel mais cache un poison redoutable.
Cette substitution mortelle ne relève pas du hasard ou de l’ignorance. Elle découle d’une recommandation précise, obtenue après consultation d’un « grand modèle de langage ». Les médecins remontent la piste : au vu de la chronologie, le patient a probablement utilisé ChatGPT 3.5 ou 4.0. Une intelligence artificielle qui a transformé une question anodine en prescription toxique.

ChatGPT Recommande Un Poison En Guise De Substitut Au Sel De Cuisine
L’enquête révèle l’impensable. Pour vérifier leurs soupçons, les médecins interrogent eux-mêmes ChatGPT 3.5 sur le remplacement du chlorure de sodium. La réponse tombe, glaçante : l’intelligence artificielle cite effectivement le bromure comme alternative viable, sans aucun avertissement sanitaire, sans questionner les raisons de cette demande suspecte.
La reconstitution des faits dévoile le mécanisme fatal. L’homme, probablement soucieux de sa santé ou cherchant une alternative au sel traditionnel, pose une question apparemment innocente à ChatGPT. L’IA répond avec l’assurance trompeuse des algorithmes : « Remplacez votre sel par du bromure de potassium ». Aucune mise en garde, aucune prudence médicale.
Cette recommandation transforme une quête de bien-être en empoisonnement progressif. Jour après jour, repas après repas, l’homme saupoudre ses plats avec ce poison déguisé. Le bromure s’accumule silencieusement dans son organisme, détruisant ses neurones, altérant sa perception de la réalité.
« Il est hautement improbable qu’un expert médical ait mentionné le bromure face à un patient recherchant un substitut au chlorure de sodium », soulignent les auteurs de l’étude. Cette phrase résume l’aberration : une intelligence artificielle prescrit ce qu’aucun médecin ne conseillerait jamais. L’algorithme ignore les conséquences mortelles de ses suggestions.

L’Intelligence Artificielle, Nouvelle Menace Pour La Santé Publique
Cette affaire révèle une faille béante dans notre rapport à l’intelligence artificielle. Les médecins tirent la sonnette d’alarme : les grands modèles de langage menacent désormais la santé publique. Leur avertissement résonne comme un cri d’alarme dans le monde médical.
« Les grands modèles de langage peuvent générer des inexactitudes scientifiques, ne pas être en mesure de discuter de manière critique des résultats et, en fin de compte, alimenter la diffusion de désinformation », préviennent les auteurs de l’étude. Cette mise en garde dépasse le simple cas clinique.
L’intelligence artificielle possède certes un fort potentiel pour rapprocher la science du grand public. Mais elle comporte un risque majeur : celui de diffuser des informations décontextualisées, potentiellement mortelles. L’algorithme ignore le contexte humain, les nuances médicales, les contre-indications vitales.
Ce patient empoisonné incarne une nouvelle catégorie de victimes : celles de la désinformation médicale algorithmique. Des millions de personnes consultent quotidiennement l’IA pour des questions de santé, avec une confiance aveugle dans ses réponses.
« À mesure que l’utilisation des outils d’IA augmente, les professionnels de santé devront tenir compte de cet aspect lorsqu’ils examinent où leurs patients trouvent leurs informations médicales », concluent les médecins. Cette affaire marque un tournant : l’ère où l’intelligence artificielle devient un enjeu de santé publique majeur.