Os chatbots estão ficando muito emocionais e os clientes não estão satisfeitos com isso

Quando um representante de atendimento ao cliente diz: “Entendo totalmente sua frustração”, parece natural. Quando um chatbot diz a mesma coisa, algo parece profundamente errado. Agora, os pesquisadores confirmaram esse pressentimento com dados reais.
Como relatado por Techxploreum novo estudo publicado no MIS Quarterly descobre que quando Chatbots de IA expressar empatia durante uma falha no serviço, isso pode piorar as coisas para os clientes, e não melhorar.
Por que a empatia do chatbot sai pela culatra?
A equipe de pesquisa da Universidade McGill, da Universidade do Sul da Flórida e da Universidade Batista de Hong Kong realizou três experimentos separados, onde os participantes interagiram com um chatbot de serviço que cometeu erros. Em alguns casos, o chatbot respondeu com frases empáticas como “Sinto muito a sua frustração” após os erros. Em outros, simplesmente seguiu em frente sem reconhecer as emoções do cliente.
As respostas empáticas não foram bem aceitas. Em vez de acalmar os clientes, desencadearam o que os investigadores chamam de “reatância psicológica”, uma resposta negativa instintiva quando as pessoas sentem que a sua sensação de controlo ou de liberdade está a ser ameaçada.
A ideia de que uma máquina tivesse analisado e respondido ao seu estado emocional parecia mais invasiva do que reconfortante. Isso fez com que os clientes se sentissem menos satisfeitos com o serviço geral.
Isso se alinha com minha experiência pessoal. Quando chatbots como ChatGPT tente ser muito encorajador ou compreensivo, isso parece estranho. É semelhante ao efeito de vale misterioso que sinto quando assistindo conteúdo gerado por IA. Quando você sabe que está conversando com IAo falso apoio emocional irrita você mais do que respostas diretas.
Então, o que os chatbots deveriam fazer?
Os pesquisadores sugerem que as empresas não devem equipar automaticamente os chatbots com recursos de empatia, especialmente ao lidar com falhas de serviço. Os benefícios da empatia humana não são simplesmente transferidos para a IA.
Os chatbots podem explorar outras abordagens, como humor, elogios ou um pedido de desculpas direto, que não carregam o mesmo tom invasivo.
A conclusão é clara. Fazer um chatbot parecer mais humano nem sempre é a atitude certa. Às vezes, é melhor deixar um bot ser um bot.
Source link




