Pega gaat strijd aan met discriminatie
Softwareleverancier Pegasystems heeft deze week een ‘Ethical Bias Check’ gelanceerd om organisaties te helpen een digitale vuist te maken tegen discriminatie. Het doel achter de tool is dat organisaties leren op een verantwoorde manier met kunstmatige intelligentie om te gaan.
Al in 2019 werd er door tal van organisaties en (overheids)instellingen gewaarschuwd dat artificial intelligence arbeidsdiscriminatie zou aanwakkeren. Pegasystems springt nu hierop in door een tool te ontwikkelen om dit te ondervangen. Eventuele vooroordelen en discriminatie in customer service algoritmen worden door de functionaliteit eruit gefilterd, voordat aanbiedingen en berichten de klant bereiken. ‘Mits op de juiste wijze toegepast, helpt AI organisaties meer waarde aan iedere klantinteractie toe te voegen. Klanten blijven zo loyaal aan een merk en dat leidt uiteindelijk tot hogere winstgevendheid. Toch kunnen AI-modellen onbewust vooroordelen aanleren op basis van bijvoorbeeld leeftijd, etniciteit of geslacht.’ Pega zet voorspellende analyses in om fouten in algoritmen op te sporen.
AI-kind
Het is niet voor het eerst dat een organisatie zich hard maakt tegen arbeidsdiscriminatie via algoritmen. Zo vertelde Tempo-Team vorig jaar tijdens een interview klaar te zijn voor de AI-revolutie, maar werd de kanttekening geplaatst dat het raadzaam is te kijken naar de positie van kunstmatige intelligentie in de branche. ‘AI is zo goed als dat je hem zelf opvoedt. Het is écht een puberkind, dus je moet er veel aandacht aan besteden. De input voor een goed algoritme moet beschikbaar en juist zijn. Het proces moet kloppen.'
- arbeidsdiscriminatie
- voorspellende analyse
- vooroordelen
- artificial intelligence
- kunstmatige intelligentie
- tool
- Pega
- customer service algoritmen
- Pegasystems
- AI
- algoritme