top of page

🔍 A quel point peut-on se soigner avec l'IA ?

C'est la question à laquelle ont tenté de répondre Bastien von Wyss, Jeannet François, et @Myriam Semaani en soumettant 3 scénarios soulevant des questions de santé à 4 chatbots. J'ai eu le plaisir de participer à cette évaluation « en aveugle » avec mes confrères Jean Gabriel Jeannot, Cédric Yves Bandelier, et Dominique Bünzli.



Même si tous les chatbots ne se prêtaient pas à tous les scénarios notamment sur la question de l’urgence pédiatrique, les chatbots généralistes comme Gemini ou ChatGPT ont reçu les meilleures évaluations.  Il est important néanmoins de souligner les défis liés au recours à ces chatbots généralistes par nos patients.





1. Variabilité des réponses : précision et fiabilité


Les chatbots ont fourni des réponses très variées en qualité et en fiabilité.

  • Certaines réponses étaient génériques et succinctes.

  • D'autres étaient plus détaillées, allant jusqu’à des recommandations précises de gestion de symptôme comme pour la fièvre ou les troubles du sommeil.


Cette variabilité peut créer de la confusion, et les utilisateurs auront du mal à évaluer la pertinence des informations reçues. De plus, les chatbots n’ont pas été entraînés sur les mêmes sources de données, ce qui peut mener à des recommandations basées sur des sources peu fiables.

Exemple : certains conseils sur la consommation de fruits pour les personnes diabétiques de type 2 sont basés sur des informations populaires issues d’un livre à succès mais qui ne faisant pas de consensus auprès des professionnels de santé.

🔑 Il est essentiel d’entraîner ces IA sur des données fiables ou de s'assurer qu'elles proviennent de sources reconnues et validées par les professionnels de santé.


2. Manque d'indices contextuels

Les chatbots peuvent négliger des éléments contextuels cruciaux (antécédents médicaux, mode de vie, contexte épidémique, etc.), ce qui peut conduire à des conseils inadaptés.L'IA peut parfois présenter des scénarios extrêmes, induisant des inquiétudes inutiles chez le patient, ou sous-estimer des signaux d'alerte, comme dans l’exemple de l’urgence pédiatrique.

🔑Plus les informations transmises au chatbot sont spécifiques et contextualisées plus on peut s’attendre à des réponses précises.


3. Biais et hallucinations

Les chatbots peuvent parfois ne pas saisir des subtilités de langage, inventer des références ou donner des réponses avec des biais qui leur sont propres.Cela peut comporter un risque notamment en cas de conseils médicaux inappropriés ou de diagnostics incorrects.

🔑 Il est important de ne pas se limiter au premier avis d’une IA généraliste et consulter un professionnel de la santé


4. Protection des données personnelles et confidentialité

Les IA collectent une grande quantité de données personnelles, ce qui pose des problèmes de confidentialité, en particulier pour des informations médicales sensibles.

🔑Il est crucial que les patients soient informés de la manière dont leurs données sont protégées .

 

5. Responsabilité en cas de conseils inadaptés

Un des grands défis est de déterminer qui est responsable en cas de conseils inadaptés fournis par l'IA, surtout si ces derniers retardent une prise en charge ou entraînent des complications.

🔑L'absence de responsabilité claire peut représenter un risque pour la sécurité des patients.


L'IA présente un potentiel réel pour fournir des informations médicales aux patients mais elle comporte aussi des risques. Il est essentiel que les patients comprennent les limites de ces outils. Les consultations avec des professionnels de la santé restent indispensables pour une prise en charge appropriée et personnalisée.


Opmerkingen


bottom of page