Mens & chatbot: verbonden willen zijn op afstand
‘Ik begrijp dat dit erg frustrerend voor u moet zijn. Het spijt me dat u deze problemen ondervindt.’ Was getekend, de servicemedewerker of servicechatbot, terwijl hij/zij empathie toont aan de gedupeerde. De servicemedewerker erkent en herkent de emotionele toestand. Echter is de grote vraag in een tijdperk waarin AI een groot deel van de klantenservicewereld beheerst: kan de computer dit net zo goed als de mens? AI is slim, maar is hij ook empathisch?
Wetenschappelijk onderzoek toont aan dat er een groeiende behoefte is aan empathische AI in diverse servicecontexten. Het is daarom essentieel voor bedrijven om niet alleen te focussen op de technische mogelijkheden van een AI-systeem, maar ook aandacht te besteden aan de emotionele intelligentie van het systeem. Het herkennen van emoties en intenties (cognitieve empathie) en het meevoelen van de emotionele toestand van iemand anders (emotionele of affectieve empathie), creëren samen het gevoel van erkenning en begrip. Empathie speelt dus een cruciale rol in het opbouwen van langdurige klantrelaties. Jeroen Marttin, partner & senior consultant van ‘chatbotbouwers’ Studio Winegum, is zich daarvan bewust. ‘Het ontwerpen van chatbots en conversaties is nu veel mensenwerk waarbij AI de taak heeft om te ondersteunen. Denk hierbij aan het aandragen van synoniemen, het geven van suggesties voor content en expressies, tekstcontrole en de herkenning van de klantvraag om deze te koppelen aan het juiste antwoord. Daarin vindt zeker een shift plaats, AI zal - in de brede zin van het woord - de taak van de mens overnemen. AI is steeds beter in het samenstellen van content en het organiseren van informatie, waarbij de mens vaker de taak krijgt om te controleren en bij te sturen. Klantcontact blijft vaak de uitkomst van processen die niet goed zijn ingericht. Want als alles goed zou gaan, zoals een goede bezorging, een product dat naar behoren werkt, een dienst die geleverd is zoals beschreven of een betaling is zoals verwacht, heeft de klantenserviceafdeling al bijna geen taak meer. Maar wanneer de mogelijkheid bestaat dat deze processen niet goed werken, of dat er elementen buiten de norm vallen, heeft de medewerker daar grote moeite mee. Het inrichten of trainen op alle uitzonderingen kost net zo veel tijd of zelfs nog meer dan het goed trainen op de basiscontent. De chatbot kan dan het verschil maken.’
Mooie toevoeging
Astrid Lubeck, innovatie consultant bij Validators, heeft daar een goed praktijkvoorbeeld bij. ‘Bij onze surveys proberen wij nu steeds vaker een chatstructuur te gebruiken. Daarin wil je dus zo echt, eerlijk en compleet mogelijke antwoorden. De grote vraag is in hoeverre een chatbot deze antwoorden uit mensen kan halen. Empathie is dus een belangrijke factor. Voor online onderzoek zijn chatbots een mooie toevoeging. Het is een mooie kans om daar meer uit te halen, net als voor standaardvragen in de klantenservice. Met een chatbot bestaat nog steeds de uitdaging om de juiste snaar te raken.’
Lubeck vertelt verder: ‘Het toekennen van menselijke eigenschappen aan iets niet-menselijks, zoals een AI-agent, wordt antropomorfisme genoemd. Dit gebeurt bijvoorbeeld wanneer AI-agenten eigenschappen vertonen zoals een menselijk uiterlijk of sociaal gedrag. Maar hoe zit dat met de menselijke eigenschap van empathie? Voor zover we weten, is AI niet in staat om daadwerkelijk mee te voelen met anderen, waardoor het hen aan emotionele empathie ontbreekt. Wel kunnen AI-systemen emotionele empathie simuleren. Een chatbot kan bijvoorbeeld reacties geven zoals ‘ik begrijp dat dit een vervelende situatie moet zijn’ of ‘het spijt me dat je niet tevreden was met onze dienst’. Hierbij zijn de woordkeuze en toon cruciale factoren die bijdragen aan het simuleren van empathisch vermogen. Een avatar of robot kan zelfs nog verder gaan door empathische gezichtsuitdrukkingen te laten zien en actief luistergedrag te vertonen door te knikken of gebaren te maken. Het is dan aan de menselijke gesprekspartner of hij de uitdrukking van empathie als geloofwaardig ervaart.’ Marttin onderschrijft dit: ‘Als je denkt aan empathie bij een chatbot, kom je al snel eerst op ‘je wachtwoord vergeten is inderdaad lastig’, ‘dit komt niet vaak voor’ of de bekende ‘wat vervelend dit te horen’. Mensen komen niet vaak specifiek voor empathie naar een chatbot, weinig mensen willen graag een chatbot spreken. Dus daarin ligt de taak om de klantvraag echt goed te herkennen en af te handelen. Het tonen van gevoel of emotie is daarin ondergeschikt.’
Culturele context
Voor cognitieve empathie, oftewel het herkennen van emoties en intenties, ligt dat anders. AI heeft de mogelijkheid om menselijke emoties te herkennen en te analyseren op basis van kenmerken zoals taalgebruik, stem en intonatie en gezichtsuitdrukkingen. Het Zweedse bedrijf Smart Eyes heeft bijvoorbeeld een algoritme ontwikkeld dat via spraakanalyse van audiofragmenten, emoties zoals boosheid kan detecteren. Hoewel AI-systemen basisemoties zoals boosheid en blijdschap herkennen, betekent een luide stem of een fronsend gezicht niet altijd dat iemand boos is. Het ontbreekt AI-systemen aan het begrip van de sociale en culturele context, wat kan leiden tot verschillende interpretaties van emoties en ongepaste reacties van het AI-systeem. Een mogelijke oplossing die AI-systemen op dit moment toepassen, is dat ze aan de klant vragen of de herkende emotie daadwerkelijk de juiste is. Lubeck ziet dit ook gebeuren in de praktijk. ‘Fijnmazigheid zit nog niet ingebakken in de chatbot. En juist dat wil je meenemen. Daar ligt de uitdaging om het goed te doen. Je moet een balans vinden tussen goed reageren voor de juiste antwoorden en tegelijkertijd niet te dichtbij willen komen, omdat het ook eng kan zijn.’
‘Fijnmazigheid zit nog niet ingebakken in de chatbot’
Daarbij moet je je ook afvragen of het functioneel is, stelt Marttin. ‘Een glimlach tijdens een interactie is goed, maar het moet de klant niet afleiden van het doel of zorgen dat de weg naar de oplossing langer wordt. Pas wanneer de klantvraag goed is herkend en een oplossing of uitgang is geboden, is er plek voor een leuke afsluiting, mits de klant daarop zit te wachten.’ Marttin ziet die fijnmazigheid al wel in delen verschijnen. Althans, niet per se in de vorm van empathie, maar wel in de manier waarop het gesprek wordt opgebouwd. ‘Er is een interessante tegenstelling te zien wanneer je kijkt naar de snelheid waarmee antwoorden van een chatbot worden getoond. Daarin verwachten klanten dan wel een soort menselijkheid. Zoals even een pauze zodat de klant denkt dat er over de vraag nagedacht wordt. Of zin voor zin of één tekstballon per keer tonen waardoor de klant het idee heeft dat er rekening gehouden wordt met de leessnelheid. En niet teveel informatie tegelijk geven, zodat er gereageerd kan worden op wat er binnenkomt en verwerkt wordt. En dan ook nog het gesprek op gang houden, zodat de klant op weg geholpen wordt naar een antwoord of uitkomst. Teveel informatie in een keer wekt niet het vertrouwen dat dit antwoord voor jou specifiek is.’
Hechte relatie
Empathie is een basale menselijke reactie, maar in hoeverre mensen in bepaalde situaties behoefte hebben aan uitdrukkingen van empathie kan wel vakgebied- en branche-afhankelijk zijn. Heb je in de zorg wel dezelfde empathie nodig als in de horeca? Zijn er sectoren die baat hebben bij meer of minder empathie van de computer? De zorg is een sector waar empathisch vermogen de hoogste prioriteit heeft. Er worden onder andere AI-gestuurde robots ingezet die in staat zijn om te troosten, te vermaken, te informeren en zelfs het gevoel van een hechte relatie kunnen opwekken. Zo heeft onderzoek aangetoond dat AI-gestuurde robotdieren eenzaamheid bij dementerende ouderen kunnen verminderen en het algehele welzijn kunnen verbeteren. Hoewel kunstmatige begeleiders in de ouderenzorg positieve resultaten laten zien, zijn er ook kritische meningen over de vervanging van menselijke zorgverleners door AI. Volgens Montemayor et al. (2022) is het gebrek aan emotionele empathie, oftewel het oprecht meevoelen met patiënten, een reden waarom het vervangen van menselijke artsen door AI in de zorg niet wenselijk is. Stel je bijvoorbeeld het moment voor waarop een patiënt de diagnose kanker krijgt. Menselijke artsen kunnen patiënten helpen bij het verwerken van deze moeilijke diagnose en hen begeleiden bij het nemen van de nodige stappen. Emotionele empathie speelt een cruciale rol in deze complexe gesprekken waardoor AI de menselijke arts niet kan vervangen. Interessant genoeg blijkt wel dat sommige patiënten zich meer comfortabel voelen om gevoelige onderwerpen te bespreken met een virtuele AI-agent, vooral omdat ze het gevoel hebben dat hun antwoorden niet worden beoordeeld.
‘Met een chatbot bestaat nog steeds de uitdaging om de juiste snaar te raken’
Een ander experiment heeft dit ook bevestigd door de waarnemingen van mensen tijdens gesprekken over gevoelige onderwerpen te vergelijken in een face-to-face setting en een setting met een chatbot. Uit de resultaten bleek dat mensen zich tijdens het gesprek met de chatbot meer anoniem voelden, wat hen in staat stelde om vrijer te praten over kwetsbare onderwerpen. ‘Het is ook afhankelijk van de branche denk ik’, vervolgt Lubeck. ‘Ik kan me voorstellen dat het in de geestelijke hulpverlening bijvoorbeeld goed werkt. Wij zien in online onderzoek dat meer beladen onderwerpen, zoals eenzaamheid en ziekte, zich er niet altijd voor lenen. Dan praten mensen toch liever tegen een echt mens. Voor onderzoek naar meer beladen onderwerpen is vaak meer tijd/interactie nodig voordat mensen zich openstellen. Voor korte interacties met chatbots lenen deze beladen onderwerpen zich nu minder goed. Het gaat dan om vertrouwen en het opbouwen van een connectie met de chatbot. De markt is hier nog niet klaar voor.’
Tekst Ryan Baij, Anna Krispin & Mark Pluymaekers | Beeld Studio BBP
Lees het volledige artikel én alle andere verhalen in CustomerFirst nummer 07 - 2023