Uiteindelijk is een virtuele agent beter

Uiteindelijk is een virtuele agent beter
  • 29 mei 2018

Of het nu een hype is of de daadwerkelijke doorbraak van ‘artificiële intelligentie’ gaan we zien. Feit is dat in artikelen op dit moment termen als AI, machine learning en robotics veel aanwezig zijn, binnen en buiten de sector. In de sector zijn mensen die denken dat het zo’n vaart niet zal lopen ‘want een computer kan nooit een empathisch gesprek voeren!’. Is dat wel zo? Kan het zijn dat een computer binnenkort een beter gesprek voert dan een medewerker van vlees en bloed? Eerst in chatgesprekken, maar al snel daarna ook in telefoongesprekken? De computer, of virtuele agent, gaat het gesprek aan met de klant en zal het beter doen!

Tekst: Hans Kardol (consultant) en Jan van der Weijden (partner) bij Cvision

Wat is nodig voor een goed gesprek?
Een klantgesprek kent, simpel gezegd, twee niveaus van communicatie. Meest eenvoudig is de inhoudelijke kant van een gesprek: wat is de vraag en welke context is nodig om de vraag te beantwoorden? Goed doorvragen, gericht luisteren en slim combineren leidt vaak tot een juist antwoord. We noemen dit het transactionele aspect van een gesprek. Het tweede niveau gaat over het sentiment in een gesprek, bijvoorbeeld blijdschap, ontevredenheid of boosheid. Zowel de woordkeuze als ‘tone of voice’ geven aan in welke gemoedstoestand een beller is. Voor een medewerker is dit soms lastig te (h)erkennen of het wordt genegeerd. Er wordt eerder gekozen voor de veilige kant van het gesprek, te weten de inhoud. Soms werkt dat, maar meestal wordt het alleen maar erger: een nog emotionelere klant omdat die zich niet gehoord en serieus genomen voelt.

Kan een algoritme daarmee omgaan?
Op het vlak van inhoudelijk beantwoording maken algoritmes steeds meer voorderingen. Het lerende vermogen van de gebruikte algoritmes is dusdanig dat de kwaliteit van de antwoorden steeds beter wordt. Zolang het maar gaat over vragen die passen in de context van de organisatie, de rekenkracht achter de algoritmes maar groot genoeg is en de complexiteit niet lastig; dan komen bijvoorbeeld chatbots een heel eind. Maar dat is niet het geval bij emotie. In de vorige CustomerFirst-uitgave (04-2018, red.) zei hoogleraar AI Eric Postma hier nog het volgende over: “De complexiteit van menselijk gedrag kun je niet vervatten in algoritmen…Wij mensen zijn in staat zaken breder te beschouwen omdat wij levenservaring en wereldkennis hebben.” De uitdaging zit ook hier in het emotionele aspect van een gesprek. Voordat we daar op ingaan, duiken we eerst dieper in de werking van het menselijk brein.

Het vier G-model
Mogelijk ben je bekend met het communicatiemodel uit de NLP (Neuro Linguïstisch Programmeren). Dat maakt gebruik van het vier G-model. Een gebeurtenis (de klant die belt, iets zegt, boos wordt, et cetera), wordt door een medewerker verwerkt via allerlei filters, (on)bewust in zijn gedachtes en stuurt daarmee het gevoel bij de medewerker. De samenhang van de gedachten en het gevoel bepaalt (on)bewust het gedrag. Gedrag veranderen houdt in werken aan zowel de gedachtes als gevoelens.

De kern voor de klant én de medewerker is dat interventie mogelijk is op het niveau van gedachtes. Professionals worden zodanig getraind dat ze de onbewuste gedachtes kunnen ‘onderbreken’ en bijsturen (‘op andere gedachtes komen’). Dit verandert de gevoelens en het gevolg is ander gedrag. Hoe kan een algoritme dit overnemen?


Medewerker versus de computer
Stel een klantcontactmedewerker voert 50 gesprekken per dag, 5 dagen per week en voor het gemak 40 weken per jaar: dat zijn 10.000 gesprekken in een jaar.
Deze medewerker moet zich ontwikkelen op één bepaald aspect, bijvoorbeeld herkennen en adequaat reageren op ironie bij de klant. Deze klant hoeft niet eens erg ontevreden te zijn, ironie is lastig genoeg om te herkennen en om op te reageren.
Stel nu dat ironie in twee procent van de gesprekken voorkomt – wat voor een goed presterend bedrijf misschien al een hoog percentage is – dan heeft de medewerker 200 gesprekken per jaar waarin hij kan leren en groeien in gedrag. Dat zijn gemiddeld 5 van de 250 gesprekken per week. En dan werkt de medewerker maar aan één aspect; laat staan wat de leercurve is als er eigenlijk aan 8 of 15 aspecten moet worden gewerkt. Ofwel, het kost tijd voordat een medewerker echt goed is. Daar liggen veel ‘mislukte’ klantgesprekken aan ten grondslag. Niet voor niks is het een hell of a job om het niveau in een klantenservice hoog te krijgen én te houden.

De kans voor algoritmes en robots
Stel nu dat we een algoritme hetzelfde willen leren. Stel dat de organisatie waar de medewerker werkt, 100 medewerkers heeft. De jaaroogst aan gesprekken is dan 1.000.000 gesprekken, de weekoogst 25.000 gesprekken. Daarin zitten 500 gesprekken waarin de computer kan oefenen en experimenteren met ‘ironie in een gesprek’. Dat is in potentie een enorme schat aan gesprekken, gezien alle emotionele aspecten die medewerkers tegenkomen.

In NRC Handelsblad stond enige tijd terug een artikel over robotbedrijf Boston Dynamics (Robots die raad weten met morele dilemma’s). Centrale vraag daarin was hoe een robot moet omgaan met ethische kwesties. De drie wetten van Asimov vormen daarvoor de basis. Dit zijn expliciet ingebouwde dwingende gedragsregels voor een robot. Een robot:

  1. mag een mens nooit letsel toebrengen;
  2. moet opdrachten van een mens uitvoeren – tenzij in tegenspraak met de eerste wet;
  3. moet zijn eigen bestaan beschermen – tenzij in tegenspraak met de eerste twee wetten.

Duidelijk is dat de techniek al ver is om continu dergelijke afwegingen te maken, mits we de feilbaarheid ervan inzien. Als er twee mensen moeten worden gered, gaat het nog te vaak fout: de robot kan niet kiezen óf maakt een rationele keuze die een mens niet kan of wil begrijpen…

Deze morele dilemma´s zijn vergelijkbaar met dilemma´s in een gesprek. Om deze te herkennen in die schat aan gesprekken moeten ze eerst door mensen zijn geannoteerd. Dan leert de computer razendsnel en bepaalt met behulp van logica in een nieuw gesprek wat effectiever is. Tot nu toe ontbreekt deze ‘annotatie’ door mensen in de datasets van opgenomen gesprekken.

Conclusie
De techniek is misschien al beschikbaar, of anders wordt in allerlei gebieden (zelfrijdende auto’s, zorgrobots) hard geëxperimenteerd met algoritmes die morele dilemma’s moeten oplossen. Daarmee ontstaan de mogelijkheden om vergelijkbare algoritmes te ontwikkelen voor gespreksvoering. In ieder geval kan een computer dan veel sneller leren dan een mens en wordt de virtuele agent dus snel beter.

comments powered by Disqus
  • Deel dit artikel
  • Reacties
  • Link