¿Pueden las inteligencias artificiales simular exámenes clínicos en psiquiatría con precisión?
Las herramientas de inteligencia artificial capaces de generar texto despiertan un interés creciente en el ámbito de la formación médica. Un reciente análisis evaluó su capacidad para responder a situaciones clínicas en psiquiatría, similares a las que se encuentran durante los exámenes prácticos llamados OSCE. Estos exámenes evalúan las competencias de los estudiantes de medicina a través de situaciones realistas, como el manejo de un paciente tras un intento de suicidio o la evaluación de un trastorno de la conducta alimentaria.
El estudio muestra que la inteligencia artificial puede producir respuestas estructuradas y médicamente pertinentes, siempre que las instrucciones que se le den sean claras y estén desprovistas de información superflua. Por ejemplo, ante un caso de sobredosis de medicamentos, es capaz de formular las preguntas adecuadas sobre la cantidad ingerida, las circunstancias de la ingesta o los factores de riesgo asociados. También propone estrategias de manejo adaptadas, como la intervención de un médico senior o la implementación de un seguimiento psicológico.
Sin embargo, cuando se añaden detalles sin relación con la situación médica a las instrucciones, la calidad de las respuestas se deteriora. Las propuestas se vuelven menos precisas, más extensas y, a veces, confusas. La herramienta puede distraerse con elementos anecdóticos, como la mención de un objeto insólito en la habitación o un pasatiempo del paciente, lo que perjudica la coherencia de sus respuestas. En algunos casos, pasa abruptamente de un tema a otro sin transición lógica o adopta un tono menos profesional.
Estas observaciones subrayan un desafío importante: las inteligencias artificiales tienen dificultades para filtrar la información relevante cuando están sobrecargadas de datos irrelevantes. Su funcionamiento se basa en probabilidades y no en una comprensión real del contexto, lo que las hace vulnerables a errores cuando las instrucciones carecen de claridad.
Para los estudiantes de medicina, estas herramientas representan un recurso útil para practicar, especialmente en entornos donde el acceso a simulaciones con pacientes reales es limitado. Permiten ejercitarse en la toma de decisiones clínicas o en la redacción de planes de atención. No obstante, su uso requiere una vigilancia constante. Los futuros médicos deben aprender a formular consultas precisas y a evaluar de manera crítica las respuestas generadas, ya que una confianza ciega podría llevar a errores en situaciones reales.
La integración de estas tecnologías en la formación médica debe, por tanto, ir acompañada de un marco riguroso. No pueden reemplazar la experiencia humana, especialmente en competencias esenciales como la empatía, la comunicación o el juicio clínico. Su papel se limita a complementar los métodos de aprendizaje tradicionales, bajo la supervisión de profesores experimentados. A medida que estas herramientas evolucionan, se necesitarán investigaciones adicionales para garantizar su fiabilidad y adecuación a los requisitos de la práctica médica.
Bibliographie
Source de l’étude
DOI : https://doi.org/10.57129/001c.159636
Titre : Large language model used to simulate psychiatric OSCE scenarios: a medical student perspective
Revue : New Zealand Medical Student Journal
Éditeur : New Zealand Medical Student Journal
Auteurs : Zhaochu Geng; Craig S. Webster; Yan Chen; Lillian Ng; Christian U. Krägeloh; Angel Li; Marcus A. Henning