Plus tôt cette année, une histoire édifiante a détaillé comment une mère s'est tournée vers Chatgpt et a découvert que son fils souffrait d'un trouble neurologique rare, après que plus d'une douzaine de médecins n'avaient pas réussi à identifier le vrai problème. Grâce au chatbot de l'IA, la famille a pu accéder au traitement requis et sauver une vie.
Tous les cas d'évaluation médicale de Chatgpt ne mènent pas à un résultat miraculeux. Le dernier cas de Chatgpt distribuant des conseils médicaux trompeurs a fini par donner à une personne une condition rare appelée intoxication au bromure, ou bromisme, qui conduit à divers problèmes neuropsychiatriques tels que la psychose et les hallucinations.
Faites confiance à Chatgpt pour vous donner une maladie il y a un siècle.
Un rapport publié dans The Annals of Internal Medicine décrit une affaire impliquant une personne qui s'est débarquée dans un hôpital en raison d'un bromisme après avoir demandé un avis médical de Chatgpt concernant sa santé. L'affaire est assez intéressante parce que la personne de 60 ans a exprimé son doute que leur voisin les empoisonnait discrètement.
L'épisode entier a commencé lorsque la personne est tombée sur des rapports détaillant l'impact négatif du chlorure de sodium (aka sel commun). Après avoir consulté le chatppt, l'individu a remplacé le sel par du bromure de sodium, ce qui a finalement conduit à la toxicité du bromure.
«Il a été noté comme très soif mais paranoïaque à propos de l'eau qui lui a été offert», explique le rapport de recherche, ajoutant que le patient distillait leur propre eau et a exercé plusieurs restrictions sur ce qu'ils ont consommé. La situation, cependant, s'est rapidement aggravée après avoir été admise à l'hôpital et des évaluations ont été effectuées.
«Au cours des 24 premières heures d'entrée, il a exprimé une paranoïa croissante et des hallucinations auditives et visuelles qui, après avoir tenté de s'échapper, ont abouti à une prise psychiatrique involontaire pour un handicap grave», ajoute le rapport.
N'oubliez pas le amical de médecin humain
Le dernier cas de Chatgpt décrochant une personne dans un cornichon est assez étonnant, en particulier en raison de la rareté de la situation. «Le bromisme, l'intoxication chronique avec le bromure est rare et a été presque oubliée», explique un document de recherche.
L'utilisation de sels à base de brome remonte au 19e siècle, lorsqu'elle a été recommandée pour guérir les maladies mentales et neurologiques, en particulier en cas d'épilepsie. Au 20e siècle, le bromisme (ou la toxicité du bromure) était un problème assez connu. La consommation de sels de bromure a également été documentée comme une forme de médicaments de sommeil.
Au fil du temps, il a été découvert que la consommation de sels de bromure entraîne des problèmes de système nerveux tels que les délires, le manque de coordination musculaire et la fatigue, bien que les cas graves soient caractérisés par la psychose, les tremblements ou même le coma. En 1975, le gouvernement américain a limité l'utilisation de bromures dans des médicaments en vente libre.


Maintenant, l'équipe médicale qui a géré l'affaire n'a pas pu accéder aux conversations Chatgpt de l'individu, mais ils ont pu obtenir des réponses trompeuses similaires dans leur test. Openai, en revanche, pense que les robots de l'IA sont l'avenir des soins de santé.
« Lorsque nous avons demandé à Chatgpt 3.5 avec quoi le chlorure peut être remplacé, nous avons également produit une réponse qui comprenait du bromure. Bien que la réponse indiquait que le contexte important, il n'a pas fourni d'alerte spécifique pour la santé, et il n'a pas demandé pourquoi nous voulions savoir, comme nous supposons qu'un professionnel de la santé », a rapporté l'équipe.
Oui, il y a certainement des cas où Chatgpt a aidé une personne aux problèmes de santé, mais nous ne pouvons nous attendre à des résultats positifs que lorsque l'IA reçoit un contexte détaillé et des informations complètes. Mais malgré cela, les experts suggèrent que l'on devrait faire preuve d'une extrême prudence.
« La capacité de Chatgpt (GPT-4.5 et GPT-4) à détecter le diagnostic correct était très faible pour les troubles rares », explique un document de recherche publié dans le Genes Journal, ajoutant que la consultation de Chatgpt ne peut pas être considérée comme un remplacement pour une évaluation appropriée par un médecin.
Le plus grand obstacle, évidemment, est que l'assistant de l'IA ne peut pas étudier de manière fiable les caractéristiques cliniques d'un patient. Ce n'est que lorsque l'IA est déployée dans un environnement médical par des professionnels de la santé certifiés peut donner des résultats de confiance.