S04-05 16

Paciente estandarizado con IA

Compartir en TWITTER/FACEBOOK/LINKEDIN

Deja tu comentario

Participa en esta ponencia enviádole tu pregunta o comentario a los autores

Añadir comentario

Firmantes

profile avatar
Max Eli Chahuara RojasUniversidad San Ignacio de Loyola
profile avatar
Maria Mercedes Saravia BartraUniversidad San Ignacio de Loyola

Enfoque

Introducción En la educación médica, la simulación es una herramienta clave para el entrenamiento de habilidades clínicas. Tradicionalmente, se han utilizado maniquíes y pacientes estandarizados. Este proyecto busca innovar en este ámbito integrando la inteligencia artificial (IA) para mejorar la interactividad y realismo de los simuladores clásicos. El objetivo es desarrollar un maniquí dotado de IA capaz de responder como un paciente estandarizado, mejorando así la experiencia de aprendizaje de los alumnos.

Objetivos El principal objetivo es potenciar la formación médica a través de la creación de un maniquí inteligente que emula respuestas humanas. Esto se pretende lograr mediante la integración de tecnologías de IA, con especial atención en el procesamiento de lenguaje natural. Se busca que el maniquí interactúe de manera realista con los estudiantes, respondiendo a sus preguntas y ofreciendo datos clínicos relevantes de manera coherente.

Metodología Se implementó una solución tecnológica que integra APIs avanzadas como Whisper y GPT-4, utilizando Python como lenguaje de programación. Los maniquíes fueron adaptados para incluir dispositivos de captura de sonido y altavoces, permitiendo una interacción bidireccional. El sistema fue preconfigurado con información clínica variada para simular distintos escenarios médicos. Se planificará la aplicación de una encuesta de usabilidad a alumnos y docentes para evaluar la efectividad del sistema tras un periodo de uso.

Discusión La integración de IA en simuladores clínicos representa un avance significativo en la educación médica. La capacidad del maniquí para procesar el lenguaje natural y responder de manera coherente ofrece una experiencia más inmersiva y realista para los estudiantes. Sin embargo, se deben considerar los desafíos éticos y prácticos, como la precisión de las respuestas y la dependencia de la tecnología.

Resultados Se espera que los resultados de la futura encuesta de usabilidad indiquen una valoración positiva tanto de alumnos como de docentes. Se anticipa que los estudiantes reportarán una mejora en la comprensión y en la experiencia de aprendizaje, mientras que los docentes destacarán la utilidad del maniquí inteligente para enseñar habilidades de comunicación y diagnóstico.

Conclusiones El proyecto demuestra que la incorporación de IA en la educación médica a través de simuladores avanzados es viable y promete beneficiar el proceso de aprendizaje. La capacidad del maniquí para interactuar de manera natural y proporcionar respuestas contextualizadas ofrece una herramienta valiosa para el entrenamiento clínico. Futuras investigaciones se centrarán en la evaluación de la precisión de las respuestas y en la expansión de las capacidades del maniquí para abarcar un rango más amplio de escenarios médicos.

Preguntas y comentarios al autor/es

Hay 16 comentarios en esta ponencia

    • profile avatar

      Ramon Palau

      Comentó el 12/02/2024 a las 10:10:40

      Buenos días
      Felicidades por la propuesta. Juntamente con unas colegas del ámbito sanitario estamos trabajando temas parecidos, así que doblemente interesante.
      Ciertamente el hecho que que las máquinas ayuden al entrenamiento de los futuros médicos es un valor y que el rol de ChatGPT sea la del paciente y no la del médico, permite que la fiabilidad del conocimiento pase a un segundo plano.
      Nuestra cuestión va un poco más allá, y si han explorado la posibilidad de que la herramienta tenga el rol de colega médico o médico supervisor al que poder hacer consultas.
      Saludos

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 12/02/2024 a las 14:44:12

        Estimado Ramón,

        Te agradecemos sinceramente por tus amables palabras. Coincidimos en que herramientas como GPT-4 pueden desempeñar un papel significativo en la mejora del entrenamiento de futuros profesionales de la salud. En cuanto a tu pregunta sobre la posibilidad de emplear GPT-4 como supervisor, hemos considerado que, por el momento, GPT-4 no ha alcanzado el nivel de madurez necesario para asumir un rol tan crucial como el de un médico supervisor.

        Es cierto que existen estudios que destacan la capacidad de ChatGPT para responder preguntas de exámenes de medicina. Sin embargo, estos mismos estudios también señalan, y la prensa a menudo omite, que la precisión de las respuestas de la IA puede variar significativamente si las preguntas no son formuladas con exactitud. Esto puede ser especialmente problemático cuando estudiantes con experiencia limitada buscan respuestas precisas, ya que la naturaleza a veces aleatoria de las respuestas de GPT-4 puede llevar a desvíos y generar discusiones no relacionadas o inexactas.

        Es importante recordar que GPT, en todas sus versiones, no fue diseñada específicamente para aplicaciones en el sector sanitario. Su capacidad para procesar y generar información relevante fue más bien un descubrimiento secundario, lo que continúa siendo objeto de estudio. El objetivo principal de GPT era desarrollar una IA capaz de comprender y generar lenguaje natural, un logro que, en nuestra opinión, se ha alcanzado satisfactoriamente. Por ello, consideramos que el uso de GPT-4 en el rol de "paciente" implica un riesgo menor. En la práctica médica, es común que los pacientes no describan sus síntomas de manera precisa, a veces incluso proporcionan información falsa por diversos motivos personales. Además, los pacientes pueden desviar la conversación durante la consulta, situaciones en las cuales el médico debe saber cómo reconducir la interacción, realizar preguntas de seguimiento y confirmar los datos proporcionados mediante un examen físico, análisis de laboratorio e imágenes diagnósticas. Los simuladores de alta fidelidad logran replicar casi a la perfección la condición de un paciente real, ofreciendo un control total sobre la información proporcionada y dotando a los estudiantes de todas las herramientas necesarias para realizar una evaluación completa de sus pacientes.

    • profile avatar

      Mercedes Lorena Pedrajas López

      Comentó el 05/02/2024 a las 09:40:11

      Muy interesante este trabajo, felicidades :) Nosotros estamos trabajando una línea similar y nos hemos encontrado con problemas en el cambio de rol de la IA en ocasiones dentro de la simulación, quería preguntar si esto les ha sucedido y, si no, cómo han trabajado con la IA para que no tenga estos fallos dentro de su rol.
      Un saludo

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 05/02/2024 a las 15:12:20

        Hola Mercedes, Gracias por tus comentarios. Primero, me gustaría saber si, al igual que nosotros, están utilizando GPT-4, o si han optado por algún otro software de modelos de lenguaje de gran tamaño (LLM). En nuestro caso, con GPT-4, establecemos parámetros específicos para cada rol y definimos palabras clave para situaciones que requieran cambios, como cuando finaliza la entrevista o si el alumno no toma en serio la conversación. Es posible trabajar con GPT-4 utilizando estas palabras clave para que asuma roles diferentes dependiendo del contexto de la charla. Adicionalmente, se pueden configurar palabras clave directamente en Python para acciones específicas, como terminar la interacción y evitar que el maniquí continúe procesando lo que el alumno pueda decir, ya sea conversando con un compañero o respondiendo a preguntas de su profesor.

    • profile avatar

      Carlos Pose

      Comentó el 02/02/2024 a las 19:21:25

      Muchas gracias por vuestra ponencia. ¿Os habéis planteado cómo puede afectar a la relación clínica la introducción de la IA con atención "personalizada" al paciente? ¿Y cómo puede afectar a las distintas especialidades? Muchas gracias

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 02/02/2024 a las 19:30:55

        Gracias por su pregunta. Entendemos que la introducción de la inteligencia artificial (IA) en la atención clínica puede cambiar la dinámica de la relación médico-paciente, pero creemos que este cambio puede ser beneficioso si se gestiona correctamente. Por ejemplo, en contextos como el de Perú, donde la cantidad de médicos es limitada y cada paciente recibe aproximadamente 15 minutos de atención, una herramienta de IA capaz de entender el lenguaje natural podría interactuar con los pacientes a través de sus dispositivos móviles mientras esperan. Esta interacción permitiría recopilar información valiosa sobre su estado de salud y el motivo de la consulta de manera amigable, sin ofrecer sugerencias ni diagnósticos. Así, al entrar a la consulta, el médico ya dispondría de un resumen detallado y preciso del paciente, permitiéndole enfocarse directamente en la dolencia específica. Esto haría que los 15 minutos de atención sean mucho más efectivos, beneficiando significativamente al paciente. Imaginemos ahora que esta práctica se extienda a todas las especialidades, mejorando la eficiencia y la calidad de la atención médica en general.

    • profile avatar

      Ana Sanz Cortés

      Comentó el 02/02/2024 a las 15:28:44

      Buenas tardes, enhorabuena por su trabajo. Cómo consideran que debe ser el entrenamiento del ChatGPT para optimizar su rol como paciente estandarizado.
      Un saludo

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 02/02/2024 a las 19:33:21

        Buenas tardes y gracias por sus palabras. Para optimizar el rol de ChatGPT (GPT-4) como paciente estandarizado en la formación médica, consideramos que su entrenamiento debe ser multidimensional. Primero, debe ser alimentado con una amplia base de datos clínicas para cubrir una diversidad de escenarios médicos, desde los más comunes hasta los más complejos y raros. Esto implica incluir datos de síntomas, historiales médicos, respuestas a tratamientos y diálogos típicos de pacientes para que pueda simular de manera realista las interacciones con los estudiantes. Además, es crucial incorporar principios de ética médica y habilidades comunicativas para que GPT-4 no solo proporcione respuestas médicamente precisas sino que también se comunique de manera empática y adecuada al contexto. Por último, el entrenamiento debe incluir un componente de retroalimentación constante de los usuarios, es decir, estudiantes y profesionales de la salud, para ajustar y mejorar continuamente las respuestas y comportamientos del sistema basándose en la experiencia práctica. Este enfoque integral asegurará que GPT-4 sea una herramienta efectiva y realista en la educación médica, preparando a los estudiantes para enfrentarse a una amplia gama de situaciones clínicas con confianza.

    • profile avatar

      Sergio Yagüe-Pasamón

      Comentó el 02/02/2024 a las 09:38:37

      Muy interesante, estimados ponentes.

      Me pregunto, ¿en qué punto puede llegar a sustituir a los profesionales de la salud con los que contamos ahora?

      Un saludo

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 02/02/2024 a las 14:12:35

        Muchas gracias por tus saludos, consideramos que estas herramientas no reemplazarán a los profesionales de salud, por el contrario creemos que fortalecerán sus capacidades, por ahora en su formación pero posteriormente en una atención más personalizada y eficaz de sus pacientes.

    • profile avatar

      Noelia Estévez Rionegro

      Comentó el 02/02/2024 a las 00:54:04

      Me ha parecido una idea interesantísima. Su herramienta podría ser extrapolable a la formación de otros profesionales, como los profesores y maestros, en aras de mejorar su comunicación con sus futuros alumnos. Como formadora de formadores, es lo que me ha suscitado. Enhorabuena.

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 02/02/2024 a las 14:13:32

        Muchas Gracias Noelia por tus palabras, esperamos poder ir mejorando día a día y poder implementar estas herramientas que mejoren la formación de nuestros profesionales.

    • profile avatar

      Raquel Espejo Siles

      Comentó el 01/02/2024 a las 11:06:29

      Enhorabuena por tan enriquecedora aportación.
      Me parece indispensable fomentar la correcta comunicación paciente-médico. Me surge la duda de si se podrían incluir "comunicaciones difíciles", donde el paciente no se muestre cooperativo con las preguntas del médico y éste tenga que buscar estrategias para lograr una comunicación más efectiva. Muchas gracias de antemano.

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 01/02/2024 a las 17:58:49

        Gracias Raquel por tus palabras, respecto a tu pregunta, Sí es posible configurarlo para que sea menos cooperativo, o incluso que por ejemplo diga algo así como, no deseo que me atienda un alumno prefiero que me atienda el Jefe del Servicio, pero al mismo tiempo hacer que dependiendo de la respuesta del alumno se mantenga reacio o finalmente acepte ser entrevistado por el alumno.

        Dado que se usa a GPT-4 y su amplia capacidad de entender el lenguaje natural es factible darme mayor realismo a la interacción.

    • profile avatar

      Joaquín Rodríguez Ruiz

      Comentó el 01/02/2024 a las 10:29:01

      Enhorabuena por su interesante y útil investigación.
      Recientemente leí un estudio experimental en el que una serie de pacientes interactuaban con un chatbot y con un médico real. Al final del experimento, los pacientes puntuaron como más empáticas las respuestas que habían recibido por parte del chatbot en comparación con los médicos reales. ¿Creen que existe la posibilidad de que la IA acabe sustituyendo a los profesionales médicos tal y como los conocemos hoy en día?

      • profile avatar

        Max Eli Chahuara Rojas

        Comentó el 01/02/2024 a las 18:07:22

        Hola Joaquín, agradezco sinceramente tus comentarios.

        A mi juicio, aún no estamos en el punto en que la inteligencia artificial (IA) reemplace al factor humano en la medicina, pero sí considero que las IA generativas podrían desempeñar un papel crucial en el futuro. Imagino un escenario donde, con el apoyo de estas tecnologías, los médicos puedan ofrecer una atención más integral, beneficiándose de información actualizada y precisa disponible de inmediato, y presentada de manera coherente y empática.

        Veamos un ejemplo práctico: antes de entrar en consulta, el paciente interactúa con una IA mientras espera su turno en el hospital. Esta interacción permite que, al momento de ser atendido por el médico, ya se cuente con un resumen detallado de sus necesidades y preocupaciones principales. Este enfoque es especialmente relevante en contextos donde el tiempo de consulta es extremadamente limitado, como en Perú, donde los médicos suelen disponer de 15 minutos o menos por paciente. Al priorizar las necesidades del paciente desde el inicio, es posible optimizar este tiempo limitado y enfocarse de manera más efectiva en el tratamiento y el cuidado específicos que requiere el paciente.

        En resumen, la IA no sustituye la empatía y el juicio clínico de un médico, sino que se perfila como una herramienta complementaria que puede mejorar significativamente la calidad de la atención médica, optimizando los procesos y permitiendo un enfoque más personalizado en el cuidado de la salud.


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.

Organizan

Colaboran

Configuración de Cookies

Utilizamos cookies para mejorar su experiencia y las funcionalidades de esta web. Ver política de cookies

Revisar