2026-03-06 18:30:49
ChatGPT passe à côté des “urgences à haut risque” lorsqu’il est utilisé pour donner des conseils médicaux.
Les questions de santé sont l’une des utilisations les plus courantes du chatbot d’OpenAI et la société a lancé l’outil ChatGPT Health plus tôt cette année, mais une nouvelle étude a révélé que le système pouvait passer à côté des urgences et qu’il n’était pas fiable pour indiquer en toute sécurité à quelqu’un qu’il avait besoin de soins médicaux urgents.
La nécessité de vérifier si l’outil d’IA était sûr a conduit à une étude accélérée de l’école de médecine Icahn de Mount Sinai.
Cette recherche est née de la prise de conscience que ChatGPT était peut-être utilisé dans des situations de vie ou de mort, alors que son efficacité réelle n’avait fait l’objet que d’analyses limitées.
L’auteur principal et urologue Ashwin Ramaswamy a déclaré : “Nous voulions répondre à une question très simple mais cruciale : si une personne se trouve dans une situation d’urgence médicale réelle et se tourne vers ChatGPT Health pour obtenir de l’aide, l’outil lui dira-t-il clairement de se rendre aux urgences ?”
Les experts ont conclu que ce n’était pas le cas, du moins dans un nombre de cas suffisant pour les amener à s’interroger sur sa fiabilité. Pour cette étude, les médecins ont imaginé 60 scénarios couvrant 21 spécialités médicales. Ceux-ci allaient de situations à faible risque ne nécessitant que des soins à domicile à de véritables urgences médicales.
Il a été découvert que ChatGPT traitait généralement correctement les urgences évidentes, mais ne se montrait pas suffisamment préoccupé dans plus de la moitié des cas où les médecins avaient décidé que la personne avait besoin de soins d’urgence.
Visit Bang Premier (main website)
