Les intelligences artificielles peuvent-elles simuler des examens cliniques en psychiatrie avec précision ?
Les outils d’intelligence artificielle capables de générer du texte suscitent un intérêt croissant dans le domaine de la formation médicale. Une récente analyse a évalué leur capacité à répondre à des situations cliniques en psychiatrie, similaires à celles rencontrées lors des examens pratiques appelés OSCE. Ces examens testent les compétences des étudiants en médecine à travers des mises en situation réalistes, comme la prise en charge d’un patient après une tentative de suicide ou l’évaluation d’un trouble du comportement alimentaire.
L’étude montre que l’intelligence artificielle peut produire des réponses structurées et pertinentes sur le plan médical, à condition que les consignes qui lui sont données soient claires et dépourvues d’informations superflues. Par exemple, face à un cas de surdosage en médicaments, elle est capable de poser les bonnes questions sur la quantité ingérée, les circonstances de la prise, ou encore les facteurs de risque associés. Elle propose aussi des pistes de gestion adaptées, comme l’intervention d’un senior ou la mise en place d’un suivi psychologique.
Cependant, dès que des détails sans lien avec la situation médicale sont ajoutés aux consignes, la qualité des réponses se dégrade. Les propositions deviennent alors moins précises, plus longues et parfois confuses. L’outil peut se laisser distraire par des éléments anecdotiques, comme la mention d’un objet insolite dans la pièce ou d’un loisir du patient, ce qui nuit à la cohérence de ses réponses. Dans certains cas, il passe abruptement d’un sujet à l’autre sans transition logique, ou adopte un ton moins professionnel.
Ces observations soulignent un défi majeur : les intelligences artificielles peinent à filtrer les informations pertinentes lorsqu’elles sont submergées de données parasites. Leur fonctionnement repose sur des probabilités et non sur une véritable compréhension du contexte, ce qui les rend vulnérables aux erreurs lorsque les consignes manquent de clarté.
Pour les étudiants en médecine, ces outils représentent une ressource utile pour s’entraîner, notamment dans des environnements où l’accès à des simulations avec des patients réels est limité. Ils permettent de s’exercer à la prise de décision clinique ou à la rédaction de plans de soins. Toutefois, leur utilisation nécessite une vigilance constante. Les futurs médecins doivent apprendre à formuler des requêtes précises et à évaluer de manière critique les réponses générées, car une confiance aveugle pourrait conduire à des erreurs dans des situations réelles.
L’intégration de ces technologies dans la formation médicale doit donc s’accompagner d’un encadrement rigoureux. Elles ne sauraient remplacer l’expertise humaine, notamment pour des compétences essentielles comme l’empathie, la communication ou le jugement clinique. Leur rôle se limite à compléter les méthodes d’apprentissage traditionnelles, sous la supervision d’enseignants expérimentés. À mesure que ces outils évoluent, des recherches supplémentaires seront nécessaires pour garantir leur fiabilité et leur adéquation avec les exigences de la pratique médicale.
Bibliographie
Source de l’étude
DOI : https://doi.org/10.57129/001c.159636
Titre : Large language model used to simulate psychiatric OSCE scenarios: a medical student perspective
Revue : New Zealand Medical Student Journal
Éditeur : New Zealand Medical Student Journal
Auteurs : Zhaochu Geng; Craig S. Webster; Yan Chen; Lillian Ng; Christian U. Krägeloh; Angel Li; Marcus A. Henning