Se podría argumentar que uno de los deberes principales de un médico es evaluar y reevaluar constantemente las probabilidades: ¿Cuáles son las posibilidades de éxito de un procedimiento médico? ¿El paciente corre peligro de desarrollar síntomas graves? ¿Cuándo debe regresar el paciente para realizar más pruebas? En medio de estas deliberaciones críticas, el auge de la inteligencia químico promete estrechar el peligro en entornos clínicos y ayudar a los médicos a priorizar la atención de los pacientes de parada peligro.
A pesar de su potencial, investigadores del Unidad de Ingeniería Eléctrica y Ciencias de la Computación (EECS) del MIT, Equality AI y la Universidad de Boston están pidiendo una viejo supervisión de la IA por parte de los organismos reguladores en un nuevo comentario publicado en el IA del New England Journal of Medicine (NEJM AI) Impresión de octubre posteriormente de que la Oficina de Derechos Civiles (OCR) de EE. UU. del Unidad de Vitalidad y Servicios Humanos (HHS) emitiera una nueva regla bajo la Ley de Atención Médica Asequible (ACA).
En mayo, la OCR publicó una regla final en la ACA que prohíbe la discriminación por motivos de raza, color, origen franquista, antigüedad, discapacidad o sexo en las “herramientas de apoyo a las decisiones de atención al paciente”, un término recientemente establecido que zapatilla tanto la IA como las herramientas no automatizadas utilizadas en medicina.
Desarrollado en respuesta al presidente Joe Biden Orden ejecutiva sobre el crecimiento y uso seguro y confiable de la inteligencia químico A partir de 2023, la regla final se cimiento en el compromiso de la despacho Biden-Harris de promover la equidad en salubridad centrándose en predisponer la discriminación.
Según el autor principal y profesor asociado de EECS Marzyeh Ghassemi, «la norma es un importante paso delante». Ghassemi, afiliado a la Clínica Abdul Latif Jameel de Formación Obligatorio en Vitalidad del MIT (Clínica Jameel), al Laboratorio de Ciencias de la Computación e Inteligencia Químico (CSAIL) y al Instituto de Ingeniería y Ciencias Médicas (IMES), agrega que la regla “ debería dictar mejoras impulsadas por la equidad en los algoritmos que no son de IA y las herramientas de apoyo a las decisiones clínicas que ya se utilizan en todas las subespecialidades clínicas”.
El número de dispositivos habilitados para IA aprobados por la Despacho de Alimentos y Medicamentos de EE. UU. ha aumentado dramáticamente en la última término desde la aprobación del primer dispositivo preparado para IA en 1995 (PAPNET Testing System, una utensilio para la detección cervical). A partir de octubrela FDA ha suficiente casi 1000 dispositivos habilitados para IA, muchos de los cuales están diseñados para respaldar la toma de decisiones clínicas.
Sin incautación, los investigadores señalan que no existe ningún organismo regulador que supervise las puntuaciones de peligro clínico producidas por las herramientas de apoyo a las decisiones clínicas, a pesar de que la mayoría de los médicos estadounidenses (65 por ciento) utilizan estas herramientas mensualmente para determinar los próximos pasos a seguir. atención al paciente.
Para enfrentarse esta deficiencia, la Clínica Jameel albergará otra conferencia regulatoria en marzo de 2025. La conferencia del año pasado desató una serie de discusiones y debates entre profesores, reguladores de todo el mundo y expertos de la industria centrados en la regulación de la IA en la salubridad.
«Las puntuaciones de peligro clínico son menos opacas que los algoritmos de ‘IA’, ya que normalmente implican sólo un puñado de variables vinculadas en un maniquí simple», comenta Isaac Kohane, presidente del Unidad de Informática Biomédica de la Destreza de Medicina de Harvard y editor en cabecilla. de NEJM IA. “Sin incautación, incluso estos puntajes son tan buenos como los conjuntos de datos utilizados para ‘entrenarlos’ y como las variables que los expertos han predilecto elegir o estudiar en una cohorte particular. Si afectan la toma de decisiones clínicas, se les debe aplicar los mismos estándares que sus parientes de IA más recientes y mucho más complejos”.
Por otra parte, si aceptablemente muchas herramientas de apoyo a la toma de decisiones no utilizan IA, los investigadores señalan que estas herramientas son igualmente culpables de perpetuar sesgos en la atención médica y requieren supervisión.
«La regulación de las puntuaciones de peligro clínico plantea desafíos importantes correcto a la proliferación de herramientas de apoyo a las decisiones clínicas integradas en los registros médicos electrónicos y su uso generalizado en la destreza clínica», dice la coautora Maia Hightower, directora ejecutiva de Equality AI. «Esta regulación sigue siendo necesaria para respaldar la transparencia y la no discriminación».
Sin incautación, Hightower añade que bajo la despacho entrante, la regulación de las puntuaciones de peligro clínico puede resultar “particularmente desafiante, donado su vigor en la desregulación y la competición a la Ley de Atención Médica Asequible y ciertas políticas de no discriminación”.