Los legisladores y reguladores en Washington están empezando a debatir cómo regular la inteligencia artificial en la atención médica, y la industria de la IA cree que hay muchas posibilidades de que lo arruinen. «Es un problema increíblemente desalentador», dijo el Dr. Robert Wachter, presidente de el Departamento de Medicina de UC San Francisco. «Existe el riesgo de que lleguemos con las armas encendidas y con una regulación excesiva». El impacto de la IA en la atención sanitaria ya está generalizado. La Administración de Alimentos y Medicamentos ha aprobado 692 productos de IA. Los algoritmos están ayudando a programar pacientes, determinar los niveles de personal en las salas de emergencia e incluso transcribir y resumir las visitas clínicas para ahorrar tiempo a los médicos. Están empezando a ayudar a los radiólogos a leer resonancias magnéticas y radiografías. Wachter dijo que a veces consulta informalmente una versión de GPT-4, un modelo de lenguaje grande de la compañía OpenAI, para casos complejos. El alcance del impacto de la IA (y el potencial de cambios futuros) significa que el gobierno ya está tratando de ponerse al día. Están terriblemente atrasados”, dijo en un correo electrónico Michael Yang, socio gerente senior de OMERS Ventures, una firma de capital de riesgo. Los pares de Yang han realizado grandes inversiones en el sector. Rock Health, una firma de capital de riesgo, dice que los financistas han invertido casi 28 mil millones de dólares en firmas de salud digital especializadas en inteligencia artificial. Un problema al que se enfrentan los reguladores, dijo Wachter, es que, a diferencia de los medicamentos, que tendrán la misma química dentro de cinco años Como ocurre hoy, la IA cambia con el tiempo. Pero la gobernanza se está formando, con la Casa Blanca y múltiples agencias centradas en la salud desarrollando reglas para garantizar la transparencia y la privacidad. El Congreso también está mostrando interés; El Comité de Finanzas del Senado celebró una audiencia sobre la IA en la atención sanitaria la semana pasada. Junto con la regulación y la legislación, viene un aumento del lobby. CNBC contabilizó un aumento del 185% en el número de organizaciones que divulgaron actividades de lobby sobre IA en 2023. El grupo comercial TechNet ha lanzado una iniciativa de 25 millones de dólares, que incluye la compra de anuncios de televisión, para educar a los espectadores sobre los beneficios de la inteligencia artificial.“Es muy difícil «Sabemos cómo regular inteligentemente la IA, ya que estamos en una etapa muy temprana de la fase de invención de la tecnología», dijo en un correo electrónico Bob Kocher, socio de la firma de capital de riesgo Venrock que anteriormente trabajó en la administración Obama. Kocher ha hablado con senadores sobre Regulación de la IA. Destaca algunas de las dificultades que enfrentará el sistema de salud al adoptar los productos. Los médicos, que enfrentan riesgos de negligencia, podrían desconfiar del uso de tecnología que no entienden para tomar decisiones clínicas. Un análisis de los datos de la Oficina del Censo de enero realizado por la consultora Capital Economics encontró que el 6,1% de las empresas de atención médica planeaban usar IA en los próximos seis años. meses, aproximadamente en la mitad de los 14 sectores encuestados. Como cualquier producto médico, los sistemas de IA pueden plantear riesgos para los pacientes, a veces de una manera novedosa. Un ejemplo: podrían inventar cosas. Watchter recordó a un colega que, a modo de prueba, asignó al GPT-3 de OpenAI la tarea de escribir una carta de autorización previa a una aseguradora para una receta intencionadamente “loca”: un anticoagulante para tratar el insomnio de un paciente. Pero la IA “escribió una hermosa nota”, dijo. El sistema citaba tan convincentemente “literatura reciente” que la colega de Wachter se preguntó brevemente si se había perdido una nueva línea de investigación. Resultó que el chatbot había inventado su afirmación. Existe el riesgo de que la IA magnifique el sesgo ya presente en el sistema de salud. Históricamente, las personas de color han recibido menos atención que los pacientes blancos. Los estudios muestran, por ejemplo, que los pacientes negros con fracturas tienen menos probabilidades de recibir analgésicos que los blancos. Este sesgo podría quedar grabado en piedra si la inteligencia artificial se entrena con esos datos y posteriormente actúa en base a ellos. La investigación sobre la IA implementada por las grandes aseguradoras ha confirmado que esto ha sucedido. Pero el problema está más extendido. Wachter dijo que UCSF probó un producto para predecir las ausencias a las citas clínicas. Los pacientes que se considera poco probable que se presenten a una visita tienen más probabilidades de recibir una cita doble. La prueba mostró que las personas de color tenían más probabilidades de no presentarse. Independientemente de si el hallazgo fue exacto o no, “la respuesta ética es preguntar por qué y si hay algo que se pueda hacer”, dijo Wachter. Dejando a un lado las exageraciones, es probable que esos riesgos sigan atrayendo la atención con el tiempo. Los expertos en inteligencia artificial y los funcionarios de la FDA han enfatizado la necesidad de algoritmos transparentes, monitoreados a largo plazo por seres humanos: reguladores e investigadores externos. Los productos de IA se adaptan y cambian a medida que se incorporan nuevos datos. Y los científicos desarrollarán nuevos productos. Los formuladores de políticas necesitarán invertir en nuevos sistemas para rastrear la IA a lo largo del tiempo, dijo la rectora de la Universidad de Chicago, Katherine Baicker, quien testificó en la audiencia del Comité de Finanzas del Senado. «El mayor avance es algo en lo que aún no hemos pensado», dijo en una entrevista. KFF Health News, anteriormente conocida como Kaiser Health News, es una sala de redacción nacional que produce periodismo en profundidad sobre temas de salud.

Source link