Athrun Data Intelligence


Providence atiende a comunidades vulnerables y desfavorecidas a través de una atención compasiva de reincorporación calidad. Como uno de los sistemas de lozanía sin fines de utilidad más grandes en los Estados Unidos, con 51 hospitales, más de 1,000 clínicas ambulatorias y más de 130,000 cuidadores en siete estados, nuestra capacidad de elogiar atención oportuna y coordinada Depende de la transformación no solo de los resultados clínicos, sino igualmente de los flujos de trabajo que los respaldan.

Una de las instancias más apremiantes es automatizar la forma en que manejamos faxes. A pesar de los avances en la lozanía digital, los faxes siguen siendo una forma dominante de comunicación en la atención médica, especialmente para las referencias entre proveedores. Providence recibe más de 40 millones de faxes anualmentetotalizado 160 millones de páginas. Una parte significativa de ese bombeo debe revisarse y transcribirse manualmente en EPIC, nuestro sistema de registro de lozanía electrónica (EHR).

El proceso es tardo, propenso a errores y contribuye a deuda de varios meses que finalmente retrasan la atención para los pacientes. Sabíamos que tenía que deber una mejor forma.

Atracar flujos de trabajo desordenados y datos no estructurados a escalera

El desafío central no era solo técnico, era humano. En la atención médica, los flujos de trabajo varían ampliamente entre clínicas, roles e incluso individuos. Un miembro del personal puede imprimir y escanear referencias antiguamente de ingresarlos manualmente a la épica, mientras que otro podría funcionar internamente de una posaderas completamente digital. La errata de estandarización hace que sea difícil aclarar una tubería de automatización «universal» o crear escenarios de prueba que reflejen la complejidad del mundo vivo.

Por otra parte de eso, los datos subyacentes a menudo se fragmentan y se almacenan inconsistentemente. Desde notas escritas a mano hasta PDF tipificados, la diferencia de documentos de fax entrantes crea una amplia serie de entradas para procesar, clasificar y extraer información. Y cuando se alcahuetería de múltiples herramientas de registro de caracteres ópticos (OCR), estrategias rápidas y modelos de jerigonza, ajustar todos estos hiperparámetros se vuelve exponencialmente más difícil.

Esta complejidad dejó en claro que nuestro éxito dependería Construyendo un ecosistema de prueba de pérdida fricción. Uno que nos permite sufrir rápidamente, comparar los resultados en miles de permutaciones y refinar continuamente nuestros modelos y indicaciones.

Acelerar la experimentación de Genai con MlFlow en Databricks

Para desavenir ese desafío, recurrimos a la plataforma de inteligencia de datos de Databricks, y específicamente Mlflowpara orquestar y esquilar nuestra tubería de experimentación del maniquí de educación inevitable. Si aceptablemente nuestra infraestructura de producción se apoyo en microservicios, las fases de experimentación y acometividad funcionan con Databricks, que es donde se encuentra gran parte del valencia.

Para nuestro tesina EFAX, utilizamos mlflow para:

  • Especificar y ejecutar trabajos parametrizados que se extienden a través de combinaciones de modelos OCR, plantillas de inmediato y otros hiperparámetros. Al permitir a los usuarios proporcionar entradas dinámicas en tiempo de ejecución, los trabajos parametrizados hacen que las tareas sean más flexibles y reutilizables. Administramos trabajos a través de nuestras tuberías de CI/CD, produciendo archivos YAML para configurar grandes pruebas de forma efectivo y repetible.
  • Rastrear y registrar los resultados del investigación Céntrico para una comparación efectivo. Esto le da a nuestro equipo una clara visibilidad de lo que funciona y lo que necesita ajuste, sin duplicar el esfuerzo. El registro central igualmente admite una evaluación más profunda del comportamiento del maniquí en todos los tipos de documentos y escenarios de narración.
  • Utilizar datos históricos Para aparentar los resultados aguas debajo y refinar nuestros modelos antiguamente de empujar a la producción. Los problemas de captura temprano en el ciclo de prueba reducen el peligro y acelera el despliegue. Esto es particularmente importante dada la diferencia de las formas de narración y la condición de cumplimiento internamente de entornos EHR muy regulados como EPIC.

Este proceso se inspiró en nuestro éxito trabajando con Databricks en nuestros marcos de educación profundo. Desde entonces, lo hemos adaptado y expandido para nuestro trabajo EFAX y la experimentación del maniquí de jerigonza ínclito (LLM).

Si aceptablemente utilizamos la inteligencia de documentos Azure AI para los modelos GPT-4.0 de OCR y OpenAI para la extirpación, el seguro acelerador de la ingeniería ha sido la capacidad de ejecutar pruebas controladas y repetidas a través de tuberías de flujo ml, lo que es el crecimiento de lo que de otro modo sería un crecimiento manual y fragmentado. Con la naturaleza unificadora de la plataforma de inteligencia de datos Databricks, podemos metamorfosear faxes sin procesar, sufrir con diferentes técnicas de IA y validar las futuro con velocidad y confianza en un solo emplazamiento.

Todos los datos de narración extraídos deben integrarse en EPIC, lo que requiere un formato de datos sin problemas, acometividad y entrega segura. Databricks juega un papel fundamental en el preprocesamiento y la normalización de esta información antiguamente de la transferencia a nuestro sistema EHR.

Además confiamos en Databricks para ETL por lotes, almacenamiento de metadatos y exploración aguas debajo. Nuestra pila tecnológica más amplia incluye el Servicio Azure Kubernetes (AKS) para la implementación contenederizada, la búsqueda de Azure para tolerar flujos de trabajo de gestación de recuperación (RAG) y Postgres para almacenamiento estructurado. Para las fases futuras, estamos explorando activamente la IA mosaica para el trapo y el maniquí que sirve para mejorar la precisión, escalabilidad y capacidad de respuesta de nuestras soluciones de IA. Con el servicio de maniquí, estaremos en una mejor posición para implementar y mandar de forma efectiva modelos en tiempo vivo, asegurando flujos de trabajo más consistentes en todos nuestros esfuerzos de IA.

Desde meses de cartera hasta el triaje en tiempo vivo

En última instancia, los beneficiarios de esta opción de EFAX son nuestros cuidadores: clinicios, administradores de registros médicos, enfermeras y otro personal de primera bisectriz cuyo tiempo actualmente es consumido por el procesamiento repetitivo de documentos. Al eliminar los cuellos de botella manuales de bajo valencia, nuestro objetivo es devolver ese tiempo a la atención al paciente.

En algunas regiones, los faxes se han sentado en colas por hasta dos o tres meses sin ser revisados, retrasos que pueden afectar severamente la atención al paciente. Con la automatización con IA, avanzamos cerca de el procesamiento en tiempo vivo de más de 40 millones de faxes anuales, eliminando los cuellos de botella y permitiendo una ingesta de narración más rápida. Este cambio no solo ha mejorado la productividad y reduce la sobrecarga operativa, sino que igualmente aceleró los plazos de tratamiento, mejoró los resultados del paciente y ha descocado al personal clínico para centrarse en la prestación de atención de veterano valencia. Al modernizar un flujo de trabajo manual históricamente, estamos desbloqueando la eficiencia de todo el sistema que se reducen en nuestras más de 1,000 clínicas ambulatorias, apoyando nuestra encargo de proporcionar atención oportuna y coordinada a escalera.

Gracias a MLFlow, no solo estamos experimentando. Estamos operacionalizando la IA de una forma que esté alineada con nuestra encargo, nuestros flujos de trabajo y las deposición en tiempo vivo de nuestros cuidadores y pacientes.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *