BrainFirst #34: Waarom menselijke bots niet werken

BrainFirst #34: Waarom menselijke bots niet werken
  • 2 oktober 2020
  • Redactie

Weten wat er in andermans bovenkamer omgaat, dat willen we allemaal wel. Immers, dan weet je ook iemands beweegredenen en kun je daar vervolgens op inspelen. Hoe utopisch het doorgronden van de psyche van de mens wellicht ook klinkt, er zijn wel degelijk ‘slimmigheidjes’ toe te passen. Om meer inzicht te krijgen in de werking van het brein in relatie tot (klant)gedrag, verzorgen verschillende neuro-experts op deze plek een minicollege. Ditmaal de (mechanische) hersenspinsels van Stefan Buijsman, onderzoeker en auteur van ‘AI, alsmaar intelligenter’.

‘De eerste chatbot ooit, ELIZA, stamt uit 1966. Hij was oorspronkelijk bedoelt voor therapiesessies en werkt daardoor voornamelijk door het antwoord van de gebruiker om te vormen tot een vraag: van ‘ik heb moeite met iets’ naar ‘waarom heb je daar moeite mee?’. Op een dag werd de bot (per ongeluk) gebruikt als klantenportaal. Een labmedewerker vroeg nietsvermoedend aan ELIZA of hij de computer kon gebruiken, waarop de chatbot antwoordde ’wat betekent het voor jou om de computer te gebruiken?’. Even later belde hij woedend de manager om te klagen over de wel erg ontwijkende receptionist.

Wat ELIZA toen al liet zien, is dat wij kunstmatige intelligentie binnen een mum van tijd behandelen als menselijke intelligentie. Diezelfde ELIZA werd ooit in een virtuele therapiesessie vergeleken met de vader van een patiënt, en velen die ELIZA gebruikten hadden het idee dat het programma hen écht begreep. Doordat het menselijk gedrag vertoont – een gesprek met je voert – leken gebruikers het in meer opzichten menselijk te behandelen. Daar is weinig voor nodig; denk aan de automatische stofzuiger of grasmaaier die vaak een naam krijgt, of aan robotzeehond PARO die reageert op de naam die de patiënt voor hem kies. Ook chatbots krijgen hierdoor soms snel een persoonlijkheid toegekend, zoals ELIZA als begripsvol te boek stond omdat het geen oordelen velde, wat de patiënt in dit geval in staat stelde om contact te maken (positief!).

De keerzijde hiervan is dat dat proces lastig te ondervangen is. Ondanks dat de participanten duidelijk verteld waren dat ELIZA een (vrij dom) computerprogramma was, werd het toch als heel menselijk ervaren. En wie zijn robotgrasmaaier een naam geeft weet prima dat het geen wensen heeft, maar merkt net zo goed op dat ‘Max zin heeft om dit stukje te maaien’. Onze hersenen lijken zo gericht te zijn op het zoeken naar motivaties en redenaties achter gedrag bij mensen en dieren dat we het – onterecht – ook bij robots doen.

Dat leidt ook tot andere reacties op fouten. Een programma van Facebook dat in 2017 op hol sloeg werd door de media bestempelt als een computer die een ‘eigen taal’ had uitgevonden. Het enige dat het deed, was delen van zinnen vijf keer herhalen door een softwarefout. Zulke fouten worden ‘menselijk’ gemaakt en komen dus anders over dan een website die het even niet doet. En dan blijft de enige oplossing om een gebruiker tijdig door te verwijzen naar een mens, want de techniek is nu eenmaal nog niet menselijk.'


Foto: Merlijn Doomernik

comments powered by Disqus