No se sorprenda si sus médicos comienzan a escribirle mensajes demasiado amigables. Podrían estar recibiendo ayuda de la inteligencia artificial. Las nuevas herramientas de inteligencia artificial están ayudando a los médicos a comunicarse con sus pacientes, algunos respondiendo mensajes y otros tomando notas durante los exámenes. Han pasado 15 meses desde que OpenAI lanzó ChatGPT. Miles de médicos ya están utilizando productos similares basados ​​en grandes modelos de lenguaje. Una empresa afirma que su herramienta funciona en 14 idiomas. La IA ahorra tiempo a los médicos y previene el agotamiento, dicen los entusiastas. También sacude la relación médico-paciente, planteando cuestiones de confianza, transparencia, privacidad y el futuro de la conexión humana. Una mirada a cómo las nuevas herramientas de IA afectan a los pacientes: ¿MI MÉDICO UTILIZA IA? En los últimos años, los dispositivos médicos con aprendizaje automático han estado haciendo cosas como leer mamografías, diagnosticar enfermedades oculares y detectar problemas cardíacos. Lo nuevo es la capacidad de la IA generativa para responder a instrucciones complejas prediciendo el lenguaje. Su próximo chequeo podría grabarse mediante una aplicación de teléfono inteligente con tecnología de inteligencia artificial que escucha, documenta y organiza todo instantáneamente en una nota que puede leer más tarde. La herramienta también puede significar más dinero para el empleador del médico porque no olvidará detalles que legítimamente podrían facturarse al seguro. Su médico debe pedirle su consentimiento antes de utilizar la herramienta. También es posible que vea alguna redacción nueva en los formularios que firma en el consultorio del médico. Otras herramientas de inteligencia artificial podrían ayudar a su médico a redactar un mensaje, pero es posible que usted nunca lo sepa. «Su médico podría decirle que lo está usando, o podría no decírselo», dijo Cait DesRoches, directora de OpenNotes, un grupo con sede en Boston que trabaja por una comunicación transparente entre médicos y pacientes. Algunos sistemas de salud fomentan la divulgación y otros no. Los médicos o enfermeras deben aprobar los mensajes generados por IA antes de enviarlos. En un sistema de salud de Colorado, dichos mensajes contienen una frase que informa que se generaron automáticamente. Pero los médicos pueden borrar esa línea. “Sonaba exactamente igual que él. Fue extraordinario”, dijo el paciente Tom Detner, de 70 años, de Denver, quien recientemente recibió un mensaje generado por IA que comenzaba: “Hola, Tom, me alegra saber que tu dolor de cuello está mejorando. Es importante escuchar a tu cuerpo”. El mensaje terminaba con “Cuídate” y una revelación de que su médico lo había generado y editado automáticamente. Detner se alegró por la transparencia. «La divulgación completa es muy importante», dijo. ¿La IA cometerá errores? Los modelos de lenguaje grandes pueden malinterpretar las entradas o incluso fabricar respuestas inexactas, un efecto llamado alucinación. Las nuevas herramientas tienen barreras de seguridad internas para tratar de evitar que las imprecisiones lleguen a los pacientes o aterricen en los registros médicos electrónicos. «No queremos que esas cosas falsas entren en las notas clínicas», dijo el Dr. Alistair Erskine, quien dirige las innovaciones digitales para Emory Healthcare, con sede en Georgia, donde cientos de médicos están utilizando un producto de Abridge para documentar las visitas de los pacientes. La herramienta ejecuta la conversación médico-paciente a través de varios modelos de lenguaje grandes y elimina ideas extrañas, dijo Erskine. «Es una forma de eliminar las alucinaciones». En última instancia, “el médico es la barrera más importante”, afirmó el Dr. Shiv Rao, director ejecutivo de Abridge. A medida que los médicos revisan las notas generadas por la IA, pueden hacer clic en cualquier palabra y escuchar el segmento específico de la visita del paciente para comprobar la precisión. En Buffalo, Nueva York, una herramienta de inteligencia artificial diferente escuchó mal a la Dra. Lauren Bruckner cuando le dijo a un paciente adolescente con cáncer que era bueno que no fuera alérgico a las sulfas. La nota generada por IA decía: «Alergias: sulfa». La herramienta “malinterpretó por completo la conversación”, dijo Bruckner. «Eso no sucede a menudo, pero claramente es un problema». ¿Y EL TOQUE HUMANO? Se puede hacer que las herramientas de IA sean amigables, empáticas e informativas. Pero pueden dejarse llevar. En Colorado, un paciente con secreción nasal se alarmó al saber, a través de un mensaje generado por IA, que el problema podría ser una fuga de líquido cerebral. (No lo fue). Una enfermera no había revisado cuidadosamente y envió el mensaje por error. «A veces, es una ayuda asombrosa y otras veces no sirve de nada», dijo el Dr. CT Lin, quien dirige las innovaciones tecnológicas en UC Health, con sede en Colorado, donde alrededor de 250 médicos y personal utilizan una herramienta de inteligencia artificial de Microsoft para escribir el Primer borrador de mensajes a los pacientes. Los mensajes se envían a través del portal para pacientes de Epic. Se tuvo que enseñar a la herramienta sobre una nueva vacuna contra el VSR porque estaba redactando mensajes que decían que no existía tal cosa. Pero con consejos de rutina (como reposo, hielo, compresión y elevación para un esguince de tobillo) «es hermoso para eso», dijo Linn. Otro aspecto positivo es que los médicos que utilizan IA ya no están atados a sus computadoras durante las citas médicas. Pueden establecer contacto visual con sus pacientes porque la herramienta de inteligencia artificial registra el examen. La herramienta necesita palabras audibles, por lo que los médicos están aprendiendo a explicar las cosas en voz alta, dijo el Dr. Robert Bart, director de información médica de UPMC, con sede en Pittsburgh. Un médico podría decir: “Actualmente estoy examinando el codo derecho. Está bastante hinchado. Se siente como si hubiera líquido en el codo derecho”. Hablar sobre el examen en beneficio de la herramienta de inteligencia artificial también puede ayudar a los pacientes a comprender lo que está sucediendo, dijo Bart. “Estuve en un examen en el que se escuchan tirones y tirones mientras el médico lo hace. Y siempre me pregunto: ‘Bueno, ¿qué significa eso?’”. ¿Y LA PRIVACIDAD? La ley estadounidense exige que los sistemas de atención médica obtengan garantías de los socios comerciales de que salvaguardarán la información médica protegida, y las empresas podrían enfrentar investigaciones y multas por parte del Departamento de Salud y Servicios Humanos si se equivocan. Los médicos entrevistados para este artículo dijeron que confían en la seguridad de los datos de los nuevos productos y que la información no se venderá. La información compartida con las nuevas herramientas se utiliza para mejorarlas, lo que podría aumentar el riesgo de una filtración de datos de atención médica. El Dr. Lance Owens es director de información médica de la Universidad de Michigan Health-West, donde 265 médicos, asistentes médicos y enfermeras practicantes utilizan una herramienta de Microsoft para documentar los exámenes de los pacientes. Él cree que los datos de los pacientes están siendo protegidos. «Cuando nos dicen que nuestros datos están seguros y segregados, lo creemos», dijo Owens. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link