
Supongamos que se le demostró que una aparejo de inteligencia fabricado ofrece predicciones precisas sobre algunas acciones que posee. ¿Cómo te sentirías al usarlo? Ahora, suponga que está solicitando un trabajo en una empresa donde el área de capital humanos utiliza un sistema de IA para detectar currículums. ¿Te sentirías cómodo con eso?
Un nuevo estudio encuentra que las personas no están completamente entusiasmadas ni totalmente reacios a la IA. En lado de caer en los campamentos de techno-optimistas y luditas, las personas están discerniendo sobre el resultado práctico del uso de IA, caso por caso.
«Proponemos que la apreciación de la IA ocurre cuando la IA se percibe como más capaz que los humanos y la personalización se percibe como innecesaria en un contexto de valentía hexaedro», dice el profesor del MIT Jackson Lu, coautor de un documento recientemente publicado que detalla los resultados del estudio. «La inquina a la IA ocurre cuando no se cumplen cualquiera de estas condiciones, y la apreciación de la IA ocurre solo cuando ambas condiciones están satisfechas».
El papel, «Inquina o apreciación de ai? Un ámbito de capacidad-personalización y una revisión metaanalítica«Aparece en Boletín psicológico. El documento tiene ocho coautores, incluidos Lu, quien es profesor asociado de estudios de trabajo y estructura de incremento profesional en la MIT Sloan School of Management.
El nuevo ámbito agrega información
Las reacciones de las personas a la IA han estado sujetas a un debate extenso, a menudo produciendo hallazgos aparentemente dispares. Un documento influyente de 2015 sobre «inquina al cálculo» descubrió que las personas son menos indulgentes de los errores generados por la IA que los errores humanos, mientras que un artículo ampliamente extraordinario de 2019 sobre «apreciación del cálculo» descubrió que las personas preferían los consejos de la IA, en comparación con los consejos de los humanos.
Para conciliar estos hallazgos mixtos, Lu y sus coautores realizaron un metaanálisis de 163 estudios anteriores que compararon las preferencias de las personas para la IA contra los humanos. Los investigadores probaron si los datos respaldaban su «ámbito de capacidad -personalización de la capacidad propuesto», la idea de que en un contexto hexaedro, tanto la capacidad percibida de la IA como la exigencia percibida de personalización, forman nuestras preferencias para la IA o los humanos.
En los 163 estudios, el equipo de investigación analizó más de 82,000 reacciones a 93 «contextos de valentía» distintos, por ejemplo, si los participantes se sentirían cómodos o no con la IA que se usa en diagnósticos de cáncer. El estudio confirmó que el ámbito de capacidad -personalización de hecho ayuda a explicar las preferencias de las personas.
«El metanálisis respaldó nuestro ámbito teórico», dice Lu. «Ambas dimensiones son importantes: las personas evalúan si la IA es más capaz que las personas en una tarea determinada, y si la tarea requiere personalización. Las personas preferirán IA solo si piensan que la IA es más capaz que los humanos y la tarea no es personal».
Agrega: «La idea esencia aquí es que la suscripción capacidad percibida por sí sola no garantiza la apreciación de la IA. La personalización además es importante».
Por ejemplo, las personas tienden a auxiliar la IA cuando se comercio de detectar fraude o clasificar grandes conjuntos de datos, áreas donde las habilidades de IA exceden las de los humanos en velocidad y escalera, y no se requiere personalización. Pero son más resistentes a la IA en contextos como la terapia, las entrevistas de trabajo o los diagnósticos médicos, donde sienten que un humano está mejor capaz de distinguir sus circunstancias únicas.
«Las personas tienen un deseo fundamental de estar a sí mismas como únicas y distintas de otras personas», dice Lu. «La IA a menudo se considera impersonal y operan de forma frecuente. Incluso si la IA está capacitada en una gran cantidad de datos, las personas sienten que la IA no puede comprender sus situaciones personales. Quieren un reclutador humano, un médico humano que puede verlos como diferente de otras personas».
El contexto además es importante: de la tangibilidad al desempleo
El estudio además descubrió otros factores que influyen en las preferencias de los individuos para la IA. Por ejemplo, la apreciación de la IA es más pronunciada para los robots tangibles que para los algoritmos intangibles.
El contexto crematístico además importa. En países con beocio desempleo, la apreciación de la IA es más pronunciada.
«Tiene sentido intuitivo», dice Lu. «Si te preocupas por ser reemplazado por AI, es menos probable que lo abrazaras».
Lu continúa examinando las actitudes complejas y en proceso de las personas en dirección a la IA. Si proporcionadamente no ve el metaanálisis presente como la última palabra sobre el asunto, prórroga que el ámbito de capacidad-personalización ofrezca una vidrio valiosa para comprender cómo las personas evalúan la IA en diferentes contextos.
«No estamos reclamando la capacidad y la personalización percibidas son las únicas dos dimensiones que importan, pero de acuerdo con nuestro metaanálisis, estas dos dimensiones capturan gran parte de lo que da forma a las preferencias de las personas para la IA contra los humanos en una amplia tonalidad de estudios», concluye Lu.
Adicionalmente de Lu, los coautores del informe son Xin Qin, Chen Chen, Hansen Zhou, Xiaowei Dong y Limei Cao de la Universidad Sun Yat-Sen; Xiang Zhou de la Universidad Shenzhen; y Dongyuan Wu de la Universidad Fudan.
La investigación fue apoyada, en parte, por subvenciones a Qin y Wu de la Fundación Franquista de Ciencias Naturales de China.