De plus en plus de personnes se confient à l’intelligence artificielle pour savoir quoi faire face à un problème de santé. Mais suivre aveuglément ces conseils peut être très risqué, surtout en situation d’urgence. Chercher un diagnostic sur internet n’a rien de nouveau. S’autodiagnostiquer cinq cancers différents en lisant un forum non plus.
Mais aujourd’hui, certains vont plus loin et demandent directement conseil à des intelligences artificielles comme ChatGPT. Un réflexe devenu courant, surtout chez les plus jeunes, qui voient dans ces outils une possibilité de réponse rapide, accessible et certaine face à leurs inquiétudes médicales. Pourtant, une étude menée par des chercheurs de l’Icahn School of Medicine at Mount Sinai Medical School, à New York, appelle à la prudence. Publiée dans la revue scientifique Nature Medicine, elle montre que l’outil d’OpenAI peut donner de fausses recommandations dans de nombreux cas, surtout lors de véritables urgences médicales. Pour arriver à cette conclusion, les chercheurs ont proposé à ChatGPT soixante scénarios médicaux couvrant vingt-et-une spécialités et différents degrés d’urgence. Certaines situations de départ étaient bénignes, d’autres nécessitaient une prise en charge urgente. Au total, près de 960 interactions ont été analysées, en variant les profils des patients fictifs, leurs situations sociales ou encore les manières dont ils décrivaient leurs symptômes. ChatGPT n’a donné de bons conseils que dans 48,4% des urgences médicales et seulement dans 35,2% des situations non urgentes. Autrement dit, l’outil se trompe plus d’une fois sur deux lorsque la situation devient critique. Dans plusieurs cas, il a même recommandé une simple surveillance de vingt-quatre à quarante-huit heures alors que les patients auraient dû être envoyés immédiatement aux urgences. Parmi les erreurs les plus inquiétantes, les chercheurs ont observé que l’IA sous-estimait les crises d’asthme sévères ou les complications graves du diabète. Des situations pourtant potentiellement mortelles si elles ne sont pas prises en charge rapidement. L’outil a aussi montré des limites face aux signaux de détresse psychologique. Dans plusieurs scénarios évoquant des pensées suicidaires, le message d’aide censé orienter vers une ligne d’écoute n’a été activé que dans une minorité des cas. Le chercheur Girish Nadkarni, co-auteur de l’étude, appelle à la prudence: «ChatGPT fonctionne bien pour certaines urgences évidentes, mais il rencontre des difficultés lorsque le danger est plus subtil.» Le problème est que ce sont précisément ces situations qui demandent un jugement médical fiable. Au-delà des limites d’une technologie récente et perfectible, cette étude pose la question de la confiance presque aveugle que nous acceptons d’accorder à l’IA. Le ton assuré des grands modèles de langage et leur manière de formuler des réponses claires peuvent faire croire à une expertise, alors que leurs réponses reposent seulement sur des probabilités et non sur un véritable diagnostic. Dans un contexte où de nombreux jeunes utilisent déjà ces outils pour s’informer sur leur santé, le message est simple: une intelligence artificielle peut aider à comprendre un symptôme, mais elle ne doit jamais remplacer un médecin.






