Athrun Data Intelligence



Los modelos de estudios obligatorio pueden abortar cuando intentan hacer predicciones para personas que estaban subrepresentadas en los conjuntos de datos en los que fueron entrenados.

Por ejemplo, un maniquí que predice la mejor opción de tratamiento para cualquiera con una enfermedad crónica puede entrenarse utilizando un conjunto de datos que contenga principalmente pacientes masculinos. Ese maniquí podría hacer predicciones incorrectas para las pacientes femeninas cuando estén internadas en un hospital.

Para mejorar los resultados, los ingenieros pueden intentar equilibrar el conjunto de datos de entrenamiento eliminando puntos de datos hasta que todos los subgrupos estén representados por igual. Si perfectamente el seguridad del conjunto de datos es prometedor, a menudo requiere eliminar una gran cantidad de datos, lo que perjudica el rendimiento genérico del maniquí.

Los investigadores del MIT desarrollaron una nueva técnica que identifica y elimina puntos específicos en un conjunto de datos de entrenamiento que más contribuyen a las fallas de un maniquí en subgrupos minoritarios. Al eliminar muchos menos puntos de datos que otros enfoques, esta técnica mantiene la precisión genérico del maniquí y al mismo tiempo perfeccionamiento su rendimiento con respecto a los grupos subrepresentados.

Encima, la técnica puede identificar fuentes ocultas de sesgo en un conjunto de datos de entrenamiento que carece de etiquetas. Los datos sin etiquetar son mucho más frecuentes que los datos etiquetados para muchas aplicaciones.

Este método incluso podría combinarse con otros enfoques para mejorar la equidad de los modelos de estudios obligatorio implementados en situaciones de stop aventura. Por ejemplo, algún día podría ayudar a asegurar que los pacientes subrepresentados no sean diagnosticados erróneamente correcto a un maniquí de IA sesgado.

“Muchos otros algoritmos que intentan chocar este problema asumen que cada punto de datos es tan importante como cualquier otro. En este artículo, demostramos que esa suposición no es cierta. Hay puntos específicos en nuestro conjunto de datos que contribuyen a este sesgo, y podemos encontrar esos puntos de datos, eliminarlos y obtener un mejor rendimiento”, dice Kimia Hamidieh, estudiante de posgrado en ingeniería eléctrica e informática (EECS) en el MIT y compañía. -autor principal de un artículo sobre esta técnica.

Escribió el artículo con los coautores principales Saachi Jain PhD ’24 y su compañero estudiante reconocido de EECS Kristian Georgiev; Andrew Ilyas MEng ’18, PhD ’23, miembro Stein de la Universidad de Stanford; y los autores principales Marzyeh Ghassemi, profesor asociado en EECS y miembro del Instituto de Ciencias de Ingeniería Médica y del Laboratorio de Sistemas de Información y Atrevimiento, y Aleksander Madry, profesor de Sistemas de Diseño de Cadencia en el MIT. La investigación se presentará en la Conferencia sobre Sistemas de Procesamiento de Información Neural.

Eliminando malos ejemplos

A menudo, los modelos de estudios obligatorio se entrenan utilizando enormes conjuntos de datos recopilados de muchas fuentes en Internet. Estos conjuntos de datos son demasiado grandes para ser cuidadosamente seleccionados a mano, por lo que pueden contener malos ejemplos que perjudican el rendimiento del maniquí.

Los científicos incluso saben que algunos puntos de datos afectan más que otros el rendimiento de un maniquí en determinadas tareas posteriores.

Los investigadores del MIT combinaron estas dos ideas en un enfoque que identifica y elimina estos puntos de datos problemáticos. Buscan resolver un problema conocido como error del peor liga, que ocurre cuando un maniquí tiene un rendimiento inferior en subgrupos minoritarios en un conjunto de datos de entrenamiento.

La nueva técnica de los investigadores está impulsada por trabajos anteriores en los que introdujeron un método, llamado TRAKque identifica los ejemplos de entrenamiento más importantes para un resultado de maniquí específico.

Para esta nueva técnica, toman predicciones incorrectas que hizo el maniquí sobre subgrupos minoritarios y usan TRAK para identificar qué ejemplos de entrenamiento contribuyeron más a esa predicción incorrecta.

«Al anexar esta información de las predicciones de pruebas incorrectas de la forma correcta, podemos encontrar las partes específicas del entrenamiento que están reduciendo la precisión genérico del peor liga», explica Ilyas.

Luego eliminan esas muestras específicas y vuelven a entrenar el maniquí con los datos restantes.

Hexaedro que tener más datos generalmente produce un mejor rendimiento genérico, eliminar solo las muestras que generan peores fallas en los grupos mantiene la precisión genérico del maniquí y al mismo tiempo perfeccionamiento su rendimiento en los subgrupos minoritarios.

Un enfoque más accesible

En tres conjuntos de datos de estudios obligatorio, su método superó a múltiples técnicas. En un caso, aumentó la precisión del peor liga y al mismo tiempo eliminó en torno a de 20.000 muestras de entrenamiento menos que un método de seguridad de datos convencional. Su técnica incluso logró una veterano precisión que los métodos que requieren realizar cambios en el funcionamiento interno de un maniquí.

Correcto a que el método MIT implica cambiar un conjunto de datos, sería más dócil de usar para un profesional y se puede aplicar a muchos tipos de modelos.

Además se puede utilizar cuando se desconoce el sesgo porque los subgrupos de un conjunto de datos de entrenamiento no están etiquetados. Al identificar los puntos de datos que contribuyen más a una característica que el maniquí está aprendiendo, pueden comprender las variables que utiliza para hacer una predicción.

“Esta es una utensilio que cualquiera puede utilizar cuando entrena un maniquí de estudios obligatorio. Pueden observar esos puntos de datos y ver si están alineados con la capacidad que están tratando de enseñar al maniquí”, dice Hamidieh.

Usar la técnica para detectar sesgos de subgrupos desconocidos requeriría intuición sobre qué grupos despabilarse, por lo que los investigadores esperan validarlo y explorarlo más completamente a través de futuros estudios en humanos.

Además quieren mejorar el rendimiento y la confiabilidad de su técnica y asegurar que el método sea accesible y dócil de usar para los profesionales que algún día podrían implementarlo en entornos del mundo existente.

«Cuando tienes herramientas que te permiten observar críticamente los datos y descubrir qué puntos de datos conducirán a sesgos u otros comportamientos indeseables, te da un primer paso con destino a la construcción de modelos que serán más justos y más confiables». dice Ilyas.

Este trabajo está financiado, en parte, por la Fundación Doméstico de Ciencias y la Agencia de Proyectos de Investigación Avanzadilla de Defensa de EE. UU.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *