Home À LA UNE Un conseil alimentaire de chatbot  chatvire au cauchemar médical

Un conseil alimentaire de chatbot  chatvire au cauchemar médical

MaxPPP TagID: ibpremiumfour003998.jpg/Photo via MaxPPP

 

Un homme de 60 ans, désireux de réduire sa consommation de sel, a remplacé le chlorure de sodium par du bromure de sodium après avoir consulté le chatbot ChatGPT. Convaincu par la réponse fournie, il a utilisé cette substance dans toute son alimentation pendant trois mois. Rapidement, il a développé insomnie, troubles moteurs, fatigue chronique, paranoïa et hallucinations. Les analyses médicales ont révélé un taux anormalement élevé de bromure dans son sang, diagnostiquant une intoxication rare appelée bromisme, autrefois fréquente lorsque cette substance entrait dans la composition de médicaments sédatifs, mais quasiment disparue depuis son interdiction dans les années 1970-1980. Ce cas, rapporté dans les Annals of Internal Medicine Clinical Cases, souligne les dangers d’informations erronées ou décontextualisées délivrées par des intelligences artificielles non supervisées.

Au-delà de cet incident, l’affaire relance le débat sur la fiabilité des conseils générés par IA, en particulier dans le domaine médical. Les modèles conversationnels s’appuient sur d’immenses bases de données où certaines informations exactes, mais mal contextualisées, peuvent conduire à des usages dangereux. Une étude publiée dans Communications Medicine montre que ces systèmes reproduisent ou amplifient des erreurs dans plus de la moitié des cas testés, même pour les modèles les plus performants. Les experts rappellent que, contrairement à un professionnel de santé, un chatbot ne prend pas en compte l’historique médical, les allergies ou les interactions médicamenteuses. Ce cas illustre donc la nécessité d’un contrôle humain vigilant et d’une prudence accrue face aux conseils automatisés, surtout lorsque la santé est en jeu.

Q Rechercher