Montrer le sommaire Cacher le sommaire
Les applications d’intelligence artificielle s’invitent de plus en plus dans nos recherches médicales quotidiennes et séduisent comme assistants santé sur smartphone. Beaucoup préfèrent interroger un chatbot comme ChatGPT plutôt que de téléphoner à un médecin. Une étude parue dans Nature Medicine questionne désormais la fiabilité de ces réponses pour établir un diagnostic. Il est essentiel de connaître les limites de ces outils avant de les utiliser pour votre santé.
Les IA de santé peuvent-elles diagnostiquer correctement?
Des chercheurs ont évalué la capacité de modèles à identifier des maladies à partir de descriptions de symptômes. Ils ont mis à l’épreuve des systèmes tels que ChatGPT, Llama et Command R+ sur des scénarios cliniques simulés. Le taux de diagnostic exact est ressorti à environ un tiers, comparable à une simple recherche Google.
Pessaire pour prolapsus génital : une alternative à la chirurgie ?
Movember : pourquoi se laisser pousser la moustache pour la santé des hommes ?
Les auteurs notent que ces résultats diffèrent des performances observées lors d’examens médicaux en QCM. Dans la pratique, le langage libre et parfois imprécis des patients complique l’interprétation. Quand les informations sont incomplètes ou confuses, l’IA fournit des réponses tout aussi incertaines. L’algorithme dépend entièrement de la qualité du texte qu’il reçoit.
Les chercheurs estiment que ces systèmes ne remplacent pas la consultation humaine et ne sont pas prêts pour un usage autonome. Rebecca Payne de l’université d’Oxford souligne l’emballement médiatique autour des IA et le décalage avec la réalité clinique. L’IA ne réalise ni examen physique ni observation directe et ne capte pas le ressenti du patient. Elle peut donner une impression d’expertise tout en se trompant gravement. Pour la majorité des experts, l’expérience et le jugement clinique restent indispensables.
Quelle méthodologie a été utilisée pour tester ces modèles?
L’étude a recruté environ 1 300 volontaires au Royaume-Uni pour une expérience contrôlée. Les participants étaient en bonne santé et ont joué des rôles à partir de scénarios élaborés. Chaque scénario se fondait sur des descriptions de symptômes validées par des cliniciens. Les modèles ont reçu ces mêmes descriptions pour émettre un diagnostic.
Un groupe témoin utilisait uniquement une recherche Internet classique sans assistance IA. Les deux approches ont donné un bon diagnostic dans un cas sur trois environ. Les auteurs précisent que certains modèles testés ont depuis été mis à jour ou remplacés.
Quels sont les risques concrets pour les patients?
Le principal danger demeure le retard de consultation lorsque l’IA rassure à tort un patient. Un diagnostic erroné peut retarder un traitement vital et aggraver l’état. David Shaw, spécialiste en bioéthique, met en garde contre les risques médicaux que ces chatbots posent au grand public. L’usage non encadré peut créer une fausse sécurité et peser sur la santé publique. Les conséquences peuvent être individuelles mais aussi collectives.
Voici quelques risques identifiés par les chercheurs. Ils montrent pourquoi l’IA ne doit pas remplacer l’avis clinique. À surveiller si vous utilisez un assistant santé.
- Retard de prise en charge pour des pathologies urgentes.
- Orientation diagnostique erronée et autoprescription dangereuse.
- Sous-estimation de symptômes alarmants par un algorithme.
- Diffusion d’informations incomplètes ou datées selon la base de données.
La régulation avance mais reste prudente face à ces enjeux. En France la HAS a estimé que l’IA peut être utile aux soignants, mais pas pour un usage direct et non supervisé par les patients. Les autorités insistent sur un déploiement encadré et complémentaire à la pratique médicale. Les patients doivent garder prioritairement le réflexe de consulter un professionnel.
Comment utiliser l’IA en santé de façon responsable?
Considérez l’IA comme un outil d’appoint et non comme un verdict final sur votre état de santé. Vérifiez les sources et gardez un esprit critique face aux suggestions fournies. Si vous avez le moindre doute, prenez rendez-vous avec un professionnel de santé.
Notez précisément l’apparition et l’évolution de vos symptômes et apportez ces éléments lors de la consultation. Présentez au médecin les réponses ou captures d’écran obtenues auprès d’un assistant IA pour enrichir l’échange. Favorisez des outils validés cliniquement et destinés à un usage professionnel quand cela est indiqué. Suivez les recommandations des autorités sanitaires et des spécialistes que vous consultez. Le fait de rester informé vous aidera à utiliser l’IA de façon plus sûre.












