Imagine enviar un mensaje a un chatbot de inteligencia artificial (IA) sobre un paquete perdido y obtener la respuesta de que estaría «encantado» de ayudar. Una vez que el bot crea el nuevo pedido, dicen que están «felices» de resolver el problema. Después, recibe una encuesta sobre su interacción, pero ¿podría calificarla como positiva o negativa?
Este escenario no está tan lejos de la realidad, ya que los chatbots de IA ya se están apoderando del comercio en línea. Para 2025, el 95% de las empresas tendrán un chatbot de IA, según Compendio de finanzas. Es posible que la IA aún no sea consciente, pero se puede programar para expresar emociones.
Se sabe desde hace mucho tiempo que los humanos que muestran emociones positivas en las interacciones de servicio al cliente mejoran la experiencia del cliente, pero los investigadores de la Facultad de Negocios Scheller del Instituto de Tecnología de Georgia querían ver si esto también se aplicaba a la IA. Realizaron estudios experimentales para determinar si las muestras emocionales positivas mejoraban el servicio al cliente y descubrieron que la IA emotiva solo se aprecia si el cliente la espera, y puede que no sea la mejor vía para que las empresas inviertan.
«Se cree comúnmente y se demuestra repetidamente que los empleados humanos pueden expresar emociones positivas para mejorar las evaluaciones de servicio de los clientes», dijo Han Zhang, profesor de Tecnología y Gestión de Steven A. Denning. «Nuestros hallazgos sugieren que la probabilidad de que la expresión de emoción positiva de la IA beneficie o perjudique las evaluaciones del servicio depende del tipo de relación que los clientes esperan del agente de servicio».
Los investigadores presentaron sus hallazgos en el artículo «Bots con sentimientos: ¿deberían los agentes de inteligencia artificial expresar emociones positivas en el servicio al cliente?», en Investigación de Sistemas de Información en diciembre.
Estudiando IA Emoción
Los investigadores realizaron tres estudios para ampliar la comprensión de la IA emocional en las transacciones de servicio al cliente. Aunque cambiaron los participantes y el escenario en cada estudio, los chatbots de IA imbuidos de emoción usaron adjetivos emocionales positivos, como emocionado, encantado, feliz o contento. También desplegaron más signos de exclamación.
El primer estudio se centró en si los clientes respondían más favorablemente a las emociones positivas si sabían que el agente del cliente era un bot o una persona. A los participantes se les dijo que buscaban ayuda para un artículo que faltaba en un pedido minorista. Luego, los 155 participantes fueron asignados aleatoriamente a cuatro escenarios diferentes: agentes humanos con emoción neutral, agentes humanos con emoción positiva, bots con emoción neutral y bots con emoción positiva. Luego preguntaron a los participantes sobre la calidad del servicio y la satisfacción general. Los resultados indicaron que la emoción positiva era más beneficiosa cuando la exhibían los agentes humanos, pero no tenía ningún efecto cuando la exhibían los bots.
El segundo estudio examinó si las expectativas personales de los clientes determinaban su reacción al bot. En este escenario, los 88 participantes imaginaron devolver un libro de texto y fueron asignados aleatoriamente a bots con emociones positivas o neutrales. Después de conversar con el bot, se les pidió que calificaran si estaban orientados a la comunidad (social) o al intercambio (transacción) en una escala. Si el participante estaba centrado en la comunidad, era más probable que apreciara el bot emocional positivo, pero si esperaba que el intercambio fuera meramente transaccional, el bot emocionalmente positivo empeoró su experiencia.
«Nuestro trabajo permite a las empresas comprender las expectativas de los clientes expuestos a los servicios proporcionados por IA antes de que equipen a la IA al azar con capacidades de expresión de emociones», dijo Zhang.
El estudio final exploró por qué la emoción positiva de un bot influye en las emociones de los clientes, siguiendo a 177 estudiantes universitarios asignados aleatoriamente a bots emotivos o no emotivos. Los resultados explicaron por qué los bots positivos tienen menos efecto de lo previsto. Debido a que los clientes no esperan que las máquinas tengan emociones, pueden reaccionar negativamente a las emociones en un bot.
Los resultados de los estudios muestran que el uso de emociones positivas en los chatbots es un desafío porque las empresas no conocen los sesgos y las expectativas de un cliente en la interacción. Un chatbot feliz podría llevar a un cliente insatisfecho.
«Nuestros hallazgos sugieren que el efecto positivo de expresar una emoción positiva en las evaluaciones del servicio puede no materializarse cuando la fuente de la emoción no es un ser humano», dijo Zhang. «Los profesionales deben tener cuidado con las promesas de equipar a los agentes de IA con capacidades de expresión de emociones».