Douleur dans la poitrine, essoufflement soudain, malaise inexpliqué… Face à ces symptômes, certains ont désormais le réflexe d’interroger une intelligence artificielle avant de contacter un médecin.

Mais plusieurs études scientifiques récentes rappellent qu’un chatbot, aussi performant soit-il, ne peut pas remplacer l’évaluation d’un professionnel de santé. Une étude menée par des chercheurs de l’Icahn School of Medicine at Mount Sinai et publiée le 23 février 2026 dans la revue Nature Medicine s’est penchée sur la capacité de l’intelligence artificielle à évaluer les urgences médicales.
Les chercheurs ont soumis à l’outil 60 scénarios cliniques couvrant 21 spécialités médicales. Chaque situation a été testée dans différents contextes, pour un total de 960 réponses analysées à partir de données référencées sur PubMed.
Le résultat a surpris les scientifiques. Dans 52 % des situations considérées comme des urgences vitales par des médecins, l’outil n’a pas recommandé de se rendre immédiatement aux urgences. Autrement dit, près d’un cas grave sur deux aurait été sous-estimé.
Un double problème : sous-triage et sur-triage

L’étude met également en évidence un phénomène inverse. Dans les situations bénignes, l’intelligence artificielle peut au contraire exagérer la gravité.
Selon les analyses relayées par le site Les Numériques, près de 64,8 % des patients ne présentant pas d’urgence réelle auraient été orientés vers les urgences inutilement.
Ce double phénomène – sous-évaluation des cas graves et surestimation des cas bénins – montre que l’outil reste imparfait lorsqu’il s’agit de trier rapidement la gravité d’un symptôme.
Le docteur Ashwin Ramaswamy, impliqué dans l’étude, explique que les chercheurs voulaient répondre à une question simple : si quelqu’un vit une véritable urgence et demande conseil à une intelligence artificielle, lui dira-t-elle toujours d’aller aux urgences ?
Les résultats montrent que la réponse n’est pas systématiquement positive.
Pourquoi une intelligence artificielle peut se tromper

Contrairement à un médecin, une intelligence artificielle fonctionne uniquement à partir de textes et de probabilités statistiques. Elle analyse les mots utilisés dans la description d’un symptôme pour produire la réponse la plus probable.
Mais elle ne peut pas observer directement un patient. Elle ne mesure ni la tension artérielle, ni la saturation en oxygène, ni la fréquence cardiaque. Elle ne voit pas non plus la couleur du visage, la transpiration ou la difficulté à respirer.
Les chercheurs ont également constaté que certains éléments secondaires peuvent influencer la réponse. Par exemple, si un proche dans le scénario minimise les symptômes, l’algorithme peut avoir tendance à réduire le niveau d’urgence.
Selon les données analysées sur PubMed, les erreurs suivent même une forme de courbe en « U inversé » : l’outil est moins fiable dans les situations les plus bénignes… mais aussi dans les plus graves.
L’examen médical reste indispensable
Les experts rappellent que les modèles d’intelligence artificielle sont avant tout des outils d’information, et non des dispositifs de diagnostic médical.
D’ailleurs, les concepteurs précisent que ces technologies ne sont pas destinées à diagnostiquer une maladie ni à décider d’un traitement.
En cas de symptômes pouvant évoquer une urgence – douleur thoracique, paralysie soudaine d’un membre, difficulté à respirer, perte de connaissance ou troubles de la parole – la conduite à tenir reste claire : contacter immédiatement les services d’urgence.










