El estudio de la universidad alemana encontró que las reacciones negativas de los usuarios al interactuar sin saberlo con chatbots aumentaron según cuán crítica consideraban la consulta del servicio. PUBLICIDAD Diseñados para imitar interacciones humanas a través de mensajes de texto o ventanas de chat en línea, los chatbots se están convirtiendo rápidamente en el primer (y a veces el único) punto de interacción con los servicios al cliente basados ​​en la web en los sectores de atención médica, comercio minorista, gobierno, banca y más. ¨Los avances en inteligencia artificial y procesamiento del lenguaje natural, además de una pandemia global que redujo al mínimo el contacto humano, han puesto al chatbot en el centro del escenario de las interacciones en línea, marcándolo como una parte esencial del futuro. Pero una nueva investigación de La Universidad de Göttingen sugiere que los humanos aún no están preparados para que el chatbot se haga cargo, especialmente sin un conocimiento previo de su presencia detrás de las interacciones. El estudio de dos partes publicado en el Journal of Service Management encontró que los usuarios reaccionaron negativamente una vez que se enteraron. que estaban en comunicación con chatbots durante un intercambio en línea. Sin embargo, cuando un chatbot cometió un error o no pudo cumplir con la solicitud de un cliente, pero reveló el hecho de que era un bot, las reacciones de los usuarios tendieron a ser más positivas con el conocimiento. y una mayor aceptación del resultado. La investigación de la universidad alemana, publicada en el Journal of Service Management, encontró que las reacciones negativas de los usuarios aumentaron en línea con cuán crítica o importante consideraban que era su consulta de servicio. Más indulgentes con los chatbots Cada estudio contó con 200 participantes en un escenario en el que se pusieron en contacto con su proveedor de energía a través de un chat en línea para actualizar las direcciones en sus contratos de electricidad después de mudarse de casa. A la mitad de los encuestados se les informó que estaban interactuando con un chatbot, mientras que a la otra mitad no. «Si su problema no es «Es más probable que se perdone a un chatbot por hacer un error que un humano». Los investigadores también sugirieron que la lealtad del cliente podría incluso mejorar después de este tipo de encuentros, donde los usuarios son conscientes a tiempo de a qué se enfrentan. Como medida de la creciente sofisticación de los chatbots y de la inversión en ellos, el estudio de Göttingen llega a pocos días de que Facebook anunciara una actualización de su Blender Bot de código abierto, lanzado en abril pasado. «Blender Bot 2.0 es el primer chatbot que puede crear simultáneamente una memoria a largo plazo a la que puede acceder continuamente, buscar en Internet información oportuna y tener funciones sofisticadas. conversaciones sobre casi cualquier tema», dijo el gigante de las redes sociales en su blog de IA de Facebook. El científico e ingeniero de investigación de IA de Facebook Jason Weston y Kurt Shuster, dijeron que los chatbots actuales, incluido el Blender Bot 1.0 original, «son capaces de expresarse articuladamente en conversaciones en curso y pueden generar textos de apariencia realista, pero tienen «memorias de peces de colores». También se continúa trabajando para eliminar repeticiones y contradicciones en conversaciones más largas, dijeron.

Source link