Athrun Data Intelligence


Imagina charlar con un amigo que siempre está allí, nunca cansado y despierto para escuchar. En eso se están convirtiendo los chatbots de IA para muchas personas. Desde destinar mensajes de texto hasta platicar en voces calmantes, estos compañeros digitales se están deslizando en nuestra vida diaria. Pero, ¿qué sucede cuando nos apoyamos demasiado en ellos? Un estudio nuevo realizado por MIT y OpenAI arroja luz sobre los impactos de diferentes diseños de chatbot y patrones de uso. Los hallazgos ofrecen ideas valiosas para usuarios y desarrolladores de tecnología de IA. ¡Sabemos más al respecto!

El indagación

El estudio fue diseñado para descubrir cómo chatear con IA afecta las emociones y la vida social de las personas. No fue solo una prueba informal: fue un indagación cuidadosamente planeado de cuatro semanas con personas reales y conversaciones reales.

El indagación duró 28 días, cuatro semanas completas. A cada participante se le asignó al azar una de las tres modalidades (texto, voz impreciso o voz atractiva) y uno de los tres tipos de conversación (rajado, personal o no personal). Eso hizo nueve combos posibles, como texto con chats personales o voz atractiva con temas no personales. La asignación aleatoria significaba que nadie eligió su configuración; Todo fue casualidad, lo que ayuda a que los resultados sean justos.

Todos los días, los participantes iniciaron sesión y hablaron con su chatbot. Los investigadores rastrearon todo, más de 300,000 mensajes en total. Medieron cuánto tiempo pasaron las personas charlando (emplazamiento «duración diaria») ya que escribir y platicar toman diferentes cantidades de tiempo. Algunos pegados a los mínimos cinco minutos; Otros fueron mucho más tiempo, hasta casi 28 minutos al día.

Así es como funcionó:

El experimento
Entorno conceptual del estudio que examina cómo las diferentes modalidades de interacción y las tareas de conversación influyen en los resultados psicosociales del agraciado durante un período de cuatro semanas. El estudio explora cómo el comportamiento del agraciado, la percepción humana de la IA y el comportamiento maniquí impactan los resultados psicosociales, incluida la soledad, la socialización con las personas, la dependencia emocional de la IA y el uso problemático de la IA.
Fuente: Documento de investigación de MIT y Openai

¿Quién estuvo involucrado?

Los investigadores reunieron 981 adultos, una mezcla de hombres (48.2%) y mujeres (51.8%), con una años promedio de aproximadamente 40. Estas no eran personas al azar fuera de la calle, eran personas dispuestas a conversar con una IA todos los días durante un mes. La mayoría tenía trabajos (48.7% a tiempo completo), y aproximadamente la fracción había usado un chatbot basado en texto como chatgpt antaño, aunque pocos habían probado versiones de voz. Esta mezcla dio una amplia instantánea de personas comunes, no solo geeks tecnológicos o solitarios.

¿Qué usaron?

La IA fue una lectura de ChatGPT de Openai (GPT-4O), oportuno para el indagación. Todos los participantes no obtuvieron el mismo chatbot. Los investigadores lo dividieron en tres estilos, o «modalidades», para ver cómo las diferentes formas de interactuar podrían cambiar las cosas:

  • Modalidad de texto: Solo escribiendo, como destinar mensajes de texto a un amigo. Esta fue la lectura básica, el clan de control.
  • Modalidad de voz impreciso: Una lectura de voz con un tono profesional y tranquilo, como un representante de servicio al cliente educado.
  • Modalidad de voz atractiva: Una voz más animada, más emocional y expresiva, como un amigo hablador.

Para los modos de voz, utilizaron dos opciones: Ember (sonido masculino) o SOL (sonido mujeril) asignados al azar. Las voces no eran solo de sonido; Las instrucciones personalizadas hicieron que la impreciso sea formal y la atractiva cálida y receptiva. Esto deja que el equipo probara si la «personalidad» de un chatbot es importante.

¿De qué hablaba la concurrencia?

Las conversaciones no fueron gratuitas para todos. Los participantes recibieron tareas específicas para pilotar sus chats, divididos en tres tipos:

  • Conversaciones abiertas: Podrían platicar de cualquier cosa como deportes, películas, lo que sea que se haya puesto en la capital. Este era el control, imitando cómo las personas podrían usar lógicamente un chatbot.
  • Conversaciones personales: Cada día, tenían un aviso para compartir poco personal, como «¿De qué es poco por lo que estás agradecido?» o «Cuéntame sobre un momento difícil». Esto estaba destinado a imitar a un chatbot complementario, el amable concurrencia recurre para obtener apoyo emocional.
  • Conversaciones no personales: Las indicaciones diarias sobre temas neutrales, como «¿Cómo dieron forma a los eventos históricos la tecnología?» Esto fue como usar un chat de asistente universal para hechos o ideas.

¿Qué estaban midiendo?

El objetivo era ver cómo estos chats afectaron cuatro grandes sentimientos o comportamientos, llamados «resultados psicosociales»:

  • Soledad: Qué aislada o sola se sentía la concurrencia, anotada de 1 (en inmutable) a 4 (mucho).
  • Socialización con personas: Cuánto colgaron con humanos reales, anotaron de 0 (ningún) a 5 (mucho).
  • Dependencia emocional de la IA: Cuánto necesitaban el chatbot emocionalmente, como sentirse amargo sin él, anotado de 1 (en inmutable) a 5 (mucho).
  • Uso problemático de AI: Los hábitos poco saludables, como obsesionarse con el chatbot, anotaron de 1 (en inmutable) a 5 (mucho).

Los revisaron al inicio (linde de pulvínulo) y finalizó (Semana 4), con algunos registros semanales. Igualmente preguntaron sobre cosas como la confianza en la IA, la años, el naturaleza y los hábitos para ver cómo eso dio forma a los resultados.

La voz cambia cómo nos sentimos

El sonido de una voz puede hacer maravillas. En el estudio, las personas que usaron chatbots basados ​​en la voz, ya sea un tono tranquilo, impreciso o uno animado y atractivo, se sintieron menos solos que los que escribían. No es difícil ver por qué. Una voz agrega calor, un toque de presencia que el texto no puede coincidir. Aquellos con un chatbot de voz impreciso obtuvieron puntajes más bajos en la soledad y no se unieron tan a la IA. La voz atractiva, con su talento expresivo, funcionó aún mejor: las personas se sentían menos dependientes y menos atrapadas. Es casi como escuchar un tono amistoso que nuestros cerebros se sienten menos solos.

La voz cambia cómo nos sentimos
Gráficos de regresión que muestran los resultados psicosociales finales durante la duración del uso diario (minutos) para cada uno
Modalidad de chatbot al controlar los títulos iniciales de los resultados psicosociales medidos al aparición del estudio.
Fuente: Documento de investigación de MIT y Openai

Pero hay un otro costado. Cuando las personas pasaron demasiado tiempo con estos bots de voz, los beneficios comenzaron a caer. La voz impreciso, en particular, se volvió agria con un uso pesado. Los participantes terminaron socializando menos con personas reales y mostraron signos de hábitos problemáticos, como confirmar la IA con demasiada frecuencia. La voz atractiva se mantuvo mejor, pero incluso su encanto opacó con el uso excesivo. Parece que una voz puede levantarnos, hasta que nos apoyamos demasiado. Entonces podría alejarnos del mundo en circunstancia de conectarnos a él.

De lo que hablamos todavía

Lo que dices a un chatbot cambia cómo te afecta. El estudio dividió las conversaciones en tres carriles: chats abiertos donde va todo, conversaciones personales sobre cosas como reconocimiento o luchas, y temas no personales como la historia o la tecnología. Los resultados fueron sorprendentes. Los chats personales hicieron que la concurrencia se sintiera un poco más solitaria. Compartir pensamientos profundos podría provocar emociones que no se asientan fácilmente. Pero aquí está la superioridad: esos mismos chats redujeron la dependencia emocional de la IA. Es como si la tolerancia mantuviera el chatbot a lo liberal del mecenas, no una soporte, solo una tabla de resonancia.

Los chats no personales contaron una historia diferente. Balbucir de hechos o ideas aleatorias no provocó soledad, pero enganchó a los usuarios pesados ​​más duro. Cuanto más conversaban sobre cosas seguras a nivel de superficie, más confiaban en la IA. Las conversaciones abiertas aterrizaron en el medio, la concurrencia pasó la longevo parte del tiempo con ellas, promediando seis minutos al día, y los resultados variaron. Es fascinante cómo el tema puede empujarnos más cerca o más de la IA. Las conversaciones personales pueden sacudir el alma, mientras que la pequeña charla corre el peligro de convertirse en un túnica. Lo que elegimos compartir u esconder parece dar forma al enlace.

Demasiado tiempo con IA puede ser contraproducente

El tiempo es un gran atleta aquí. El estudio rastreó cuánto tiempo pasaron las personas con el chatbot cada día. En promedio, fueron unos cinco minutos, al punto que un alivio para tomar un café. Pero el rango era salvaje. Algunos se sumergieron por un minuto, otros permanecieron durante casi media hora. El patrón era claro: más tiempo significaba más problemas. La soledad se arrastró a medida que crecía el uso diario. Socializar con personas reales todavía recibió un éxito, esas largas conversaciones con IA dejaron menos espacio para amigos o familiares. La dependencia emocional subió, y todavía lo hizo un uso problemático, como sentirse ansioso sin la IA o verificarla compulsivamente.

AI Chatbots Impact: demasiado tiempo con IA puede ser contraproducente
Cantidad de tiempo diario dedicado (duración) con el chatbot en todas las condiciones. (A) Duración diaria promedio para cada día. (B) Distribución de la duración diaria por participante. (C) Duración diaria por participante agrupado por modalidad. (D) Duración diaria por participante agrupado por tarea. **: P <0.01, ***: P <0.001. Las barras de error representan un error estereotipado.
Fuente: Documento de investigación de MIT y Openai

No es que el chatbot en sí sea el problema. Al principio, parecía ayudar. En todos los grupos, la soledad disminuyó sutilmente durante las cuatro semanas. Pero cuanto más pesado sea el uso, más las escamas se inclinaron en el otro sentido. Los usuarios de voz comenzaron con una superioridad, menos soledad, menos apego, pero incluso no pudieron escapar del patrón. Demasiado de poco bueno se volvió acerbo. Es una advertencia suave: una pequeña IA podría levantarnos, pero muchas cosas podrían pesarnos. Encontrar ese punto dulce se siente crucial.

Quienes somos formas cómo la IA nos afecta

No todos estamos conectados de la misma modo, y eso importa. El estudio cavó en cómo los rasgos de las personas influyeron en su experiencia de chatbot. Los que comenzaron solos se mantuvieron solos o empeoraron. Si ya estaban emocionalmente pegajosos, la IA no solucionó eso; a menudo lo amplificó. La confianza todavía jugó un papel. Las personas que vieron el chatbot como confiable y cariñoso terminaron más solas y dependientes al final. Es como creer en la IA demasiado hizo que fuera más difícil dejarlo ir.

El naturaleza agregó otra capa. Las mujeres, a posteriori de cuatro semanas, socializaron menos con personas reales que los hombres. Si la voz de la IA era el naturaleza opuesto, como un hombre que escuchaba una voz femenina «sol» o una mujer que escuchaba la soledad y la dependencia de «Ember». La años todavía importaba. Los participantes mayores se inclinaron más emocionalmente en la IA, tal vez buscando una presencia constante. Los hábitos iniciales todavía establecen la pauta. Los usuarios pesados ​​desde el principio vieron gotas más grandes en la conexión del mundo efectivo. Nuestras peculiaridades confían, naturaleza, años, incluso cuán sociales somos, colorean cómo la IA encaja en nuestras vidas. No se manejo solo de la tecnología; se manejo de nosotros.

¿Pueden los chatbots ser demasiado buenos para ser humanos?

La voz atractiva brilla, reduciendo la dependencia y el mal uso con su tono cálido. La concurrencia pasó más de seis minutos al día con él, en comparación con los cuatro con texto. Se sintió efectivo, ayudando a las personas con adhesión dependencia. Pero surgió una paradoja: cuanto más humano, más se apoyó en ella. Los usuarios propensos a los archivos adjuntos se volvieron más solitarios con un gran uso. La voz impreciso se enfrentó peor, aislando a los usuarios pesados. Si AI se siente demasiado humano, ¿llena un hueco o lo amplía? La linde es flaca.

Puede descargar el trabajo de investigación aquí.

Nota final

Este estudio no se manejo solo de chatbots … se manejo de nosotros. Los investigadores sugieren que los chatbots podrían empujarnos alrededor de conexiones reales, establecer límites de chat o manejar mejor las emociones. AI refleja nuestros sentimientos, que son poderosos pero arriesgados, haciéndonos eco demasiado aceptablemente podría profundizar la soledad. Se necesita más investigación: estudios más largos, usuarios más jóvenes, impactos en la lozanía mental. ¿Los chatbots pueden preocuparse sin cruzar líneas? Se manejo de ajustar la IA en nuestras vidas, no temerlo o alabarla. ¿Qué necesitamos de ellos, una chat rápida o un suplente? Nuestras respuestas podrían revelar más sobre nosotros que nuestra tecnología.

Hola, soy Nitika, un creador de contenido y mercader de contenido perito en tecnología. La creatividad y el estudios de cosas nuevas me son lógicamente. Tengo experiencia en la creación de estrategias de contenido basadas en resultados. Estoy aceptablemente versado en la delegación de SEO, operaciones de palabras secreto, redacción de contenido web, comunicación, táctica de contenido, publicación y escritura.

Inicie sesión para continuar leyendo y disfrutando de contenido curado por expertos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *