Klantcontact onder de loep van de AI Act

De EU AI Act is het eerste uitgebreide wettelijke kader voor kunstmatige intelligentie ter wereld. Europa wil hiermee betrouwbare, veilige en mensgerichte AI stimuleren en tegelijk wereldwijd een leidende rol spelen. Wat gaat deze wetgeving betekenen voor klantinteractie? CustomerFirst zocht het uit.
Eerst even wat achtergrondinformatie. Een AI-systeem is een machinegestuurd systeem dat zelfstandig of deels zelfstandig kan werken en zich na ingebruikname kan aanpassen. Op basis van ontvangen input bepaalt het systeem hoe het systeem output genereert – zoals voorspellingen, content, aanbevelingen of beslissingen – die effect kunnen hebben op de fysieke of digitale omgeving.
En hoewel veel AI-systemen weinig risico’s vormen, kunnen sommige toepassingen schadelijk zijn. Om dat beter te reguleren, is de AI Act op 1 augustus 2024 in werking getreden die gefaseerd ingevoerd wordt tot 2027, afhankelijk van het risiconiveau van de AI-toepassing (zie kader Indeling risiconiveaus AI). Afgelopen februari zijn de verbodsbepalingen en verplichtingen over AI-geletterdheid van toepassing geworden en aankomende augustus zullen de governanceregels en de verplichtingen voor AI-modellen voor algemeen gebruik ingaan. De wet is van toepassing op alle partijen die AI-systemen binnen de EU op de markt brengen, gebruiken of verspreiden, ongeacht waar zij gevestigd zijn.
Er zijn ook uitzonderingen op de AI Act. Zo is de wet niet van toepassing op AI-systemen die zich nog in de onderzoeks- en ontwikkelfase bevinden en dus nog niet commercieel worden ingezet. Ook vrije en open-source software valt buiten de reikwijdte, tenzij deze als hoog risico wordt aangemerkt of aanzienlijke impact heeft. Verder geldt het niet voor militaire toepassingen of AI-systemen die uitsluitend zijn ontwikkeld voor wetenschappelijk onderzoek. Daarnaast zijn bestaande AI-systemen die vóór de inwerkingtreding van de wet op de markt zijn gebracht uitgezonderd, zolang ze niet ingrijpend worden aangepast. Tot slot is de wet niet van toepassing op AI die wordt gebruikt voor persoonlijke, niet-professionele doeleinden.
Toezicht en handhaving
Het EU AI Office, opgericht in 2023 als onderdeel van de Europese Commissie, speelt een centrale rol bij de uitvoering van de AI Act. Het kantoor coördineert en houdt toezicht, werkt de wet verder uit via gedelegeerde en uitvoeringshandelingen, en verduidelijkt onder andere welke AI-toepassingen verboden zijn. Ook is het verantwoordelijk voor de handhaving van regels rond generieke AI-modellen en beheert het een register van hoog-risico AI-systemen.
De bevoegdheden voor handhaving worden verdeeld tussen het EU AI Office en de toezichthoudende autoriteiten in de lidstaten. In Nederland zijn Autoriteit Persoonsgegevens (AP) en Rijksinspectie Digitale Infrastructuur (RDI) de coördinerende toezichthouders. Afhankelijk van de sector zijn verschillende toezichthouders verantwoordelijk voor het toezicht op AI-toepassingen. Zo houden de Autoriteit Financiële Markten (AFM) en De Nederlandsche Bank (DNB) toezicht op AI in de financiële sector, de Inspectie Gezondheidszorg en Jeugd (IGJ) op toepassingen in de zorg, de Nederlandse Voedsel- en Warenautoriteit (NVWA) op AI in producten zoals voedsel en speelgoed, en de Inspectie Leefomgeving en Transport (ILT) op systemen binnen de transportsector. Deze lidstaten handhaven de risicogebaseerde regels voor AI-systemen en coördineren AI-sandboxes (afgebakende testomgeving).
‘AI gaat in onze ogen niet over de vervanging van de mens, maar over de slimme samenwerking tussen mens en technologie.’
Verder is er ook een European Artificial Intelligence Board. Deze raad, met vertegenwoordigers uit alle lidstaten, bewaakt de consistente toepassing van de wet, geeft interpretatiehulp en coördineert nationale toezichthouders. Dat is relevant, zeker nu veel definities in de wet – zoals wat precies ‘hoog risico’ is – in de praktijk nog nadere invulling vragen. Bij overtredingen kunnen boetes oplopen tot € 35 miljoen of 7% van de wereldwijde jaaromzet, afhankelijk van welk bedrag hoger is.
Concrete voorbeelden klantcontact
De AI Act kan directe en ingrijpende gevolgen hebben voor klantcontact. Vooral als bedrijven gebruikmaken van AI-systemen zoals chatbots, voicebots, sentimentanalyse of AI-ondersteunde CRM-tools. Hieronder de belangrijkste implicaties, met per punt een concreet voorbeeld.
1. Transparantieplicht bij interactie met AI
Als klanten communiceren met een AI-systeem (zoals een chatbot), moet duidelijk worden gemaakt dat het om AI gaat. Dit betekent bijvoorbeeld dat een chatbot zich moet voorstellen als virtuele assistent of digitale medewerker. Gevolg voor klantcontact: je mag klanten niet laten denken dat ze met een mens praten als dat niet zo is – dit vereist aanpassingen in scripts, interfaces en tone of voice. Voorbeeld: een telecombedrijf laat de chatbot het gesprek starten met: ‘Goedemiddag, ik ben chatbot Izzi van Odido.’
2. Classificatie als ‘hoog risico’ bij kritieke toepassingen
Als een AI-systeem beslissingen neemt die grote gevolgen kunnen hebben voor klanten (denk aan het toekennen van leningen, verzekeringen, of fraudedetectie), valt het waarschijnlijk onder de hoog-risicocategorie. Dit betekent: strengere eisen rond controle, uitlegbaarheid en documentatie. Gevolg voor klantcontact: AI mag bijvoorbeeld niet zelfstandig een klacht afwijzen of een klant buitensluiten zonder menselijke controle – er moet menselijk toezicht zijn. Voorbeeld: een zorgverzekeraar gebruikt AI om declaraties te beoordelen. Afwijzingen worden altijd gecontroleerd door een menselijke medewerker voordat de klant bericht krijgt.
3. Documentatie en logging
Organisaties moeten vastleggen hoe AI-systemen beslissingen nemen, inclusief de data waarop beslissingen zijn gebaseerd. Gevolg voor klantcontact: je moet kunnen uitleggen waarom een AI een bepaalde interactie heeft afgehandeld zoals deze is afgehandeld – cruciaal bij klachten, audits of escalaties. Voorbeeld: een chatbot in de retail legt per gesprek vast welke klantvraag is herkend, welke data als antwoord is verstuurd en welke vervolgstap is genomen.
4. Aandacht voor non-discriminatie en bias
AI in klantcontact (zoals sentimentanalyse, voice-analyse of gespreksrouting) mag geen ongewenste vooroordelen bevatten. Je moet aantonen dat het systeem niet discrimineert op basis van geslacht, taalgebruik, afkomst, et cetera. Gevolg voor klantcontact: training en testing van AI moet divers zijn – anders loop je risico op indirecte discriminatie, bijvoorbeeld in gespreksprioritering. Voorbeeld: een callcenter controleert regelmatig of het AI-systeem mannelijke en vrouwelijke klanten even snel doorverbindt met een medewerker.
5. Impact op leveranciers en outsourcing
Veel bedrijven gebruiken AI via externe platforms (zoals AI-chatbots of klantenservicesoftware). Die leveranciers moeten ook voldoen aan de AI Act, maar je blijft als organisatie medeverantwoordelijk. Gevolg voor klantcontact: je moet contractueel en technisch zeker stellen dat jouw leveranciers compliant zijn – inclusief audits, garanties en technische documentatie. Voorbeeld: een bank verplicht zijn AI-chatbotleverancier om jaarlijkse compliance-audits te leveren en inzicht te geven in de gebruikte trainingsdata.
6. Toegenomen vertrouwen door regulering
Op de lange termijn kan de AI Act leiden tot meer vertrouwen bij klanten in AI-systemen, doordat ze weten dat deze eerlijk, veilig en transparant moeten zijn. Gevolg voor klantcontact: klantcontactteams kunnen AI actiever inzetten – mits goed ontworpen – zonder angst voor wantrouwen bij klanten. Voorbeeld: een energiemaatschappij communiceert actief over het ethisch gebruik van AI in haar klantenservice, inclusief een uitlegpagina op de website.
De AI Act geldt overigens niet alleen voor systemen die direct met klanten interacteren, maar ook voor AI-toepassingen die medewerkers ondersteunen – zoals tools voor gesprekssamenvattingen of het automatisch genereren van conceptantwoorden.
Zet de (eerste) stap
Voor bedrijven die AI willen toepassen, is een proactieve aanpak essentieel om tijdig aan de AI Act te voldoen. Hoewel nog niet alle technische details zijn uitgewerkt, is de algemene richting van de regelgeving duidelijk. Organisaties doen er goed aan nu al te starten met de voorbereiding, zoals het bewust maken van medewerkers, het in kaart brengen van bestaande AI-systemen, en het inrichten van governance en risicobeheer. Daarbij kunnen ze voortbouwen op bestaande structuren en ervaringen met eerdere wetgeving, zoals de AVG. Vroegtijdige actie helpt bedrijven om straks soepel te voldoen aan de nieuwe verplichtingen. De Europese Commissie lanceerde het AI Pact om bedrijven te ondersteunen bij vrijwillige naleving van de AI Act. Deelnemers delen hun inspanningen rond compliance, die openbaar worden gemaakt. Meer weten? https://digital-strategy.ec.europa.eu/en/policies/ai-pact
‘Op verantwoorde wijze omgaan met AI binnen klantcontact’
Roel Masselink (KSF) over de AI Act
AI speelt een steeds belangrijkere rol in klantcontact. Door een combinatie van arbeidsmarktkrapte, stijgende kosten en de toenemende complexiteit van producten en diensten groeit de druk op serviceorganisaties. De Klantenservice Federatie (KSF) ziet AI in die context als een essentieel hulpmiddel voor de kwaliteit, de bereikbaarheid en betaalbaarheid van klantcontact. Tegelijkertijd vraagt de technologie om verantwoord gebruik, gezien de impact op klanten, medewerkers en organisaties. Hoe staat de federatie tegenover de AI Act? We vroegen het aan Roel Masselink, directeur van KSF.
Volgens Masselink biedt de Europese AI Act waardevolle kaders voor dat verantwoorde gebruik. ‘De AI Act roept niet direct veel vragen of zorgen op bij organisaties, al is er soms twijfel over de risico-indeling van een AI-tool. Daarbij wreekt zich dat er bijvoorbeeld nog geen jurisprudentie is.’ In zijn ogen vertraagt de wet de inzet van AI niet. ‘Wij zien weinig “rem” op de inzet en implementatie van AI. Organisaties gaan juist vanuit urgentie of opportunisme aan de slag om niet te laat of de laatste te zijn.’
Interne verschillen en technische obstakels
In de praktijk lopen organisaties vooral aan tegen interne verschillen in tempo en prioriteit. ‘Operationele afdelingen willen vaart maken, terwijl juridische afdelingen soms nog wat meer op de rem trappen. Ook integratie met bestaande systemen en datazuiverheid zijn soms remmende factoren binnen een organisatie.’ Grote compliance problemen door de AI Act ziet Masselink nog niet. ‘Met de technologie die nu wordt ingezet merken we in de praktijk nog niet dat er grote vraagstukken zijn. We denken wel dat de AI Act bijdraagt aan meer bewustwording van ethische implicaties van de inzet van AI. We zien dat er binnen organisaties meer evenwicht komt in het denken rond “het kunnen”, “het mogen” en “het willen”. KSF vindt dat een goede zaak, die past in onze AI-visie én in onze zeven servicebeloften.’
Ondersteuning voor leden
KSF helpt leden op verschillende manieren bij de implementatie van AI in lijn met de wetgeving. ‘We ondersteunen de sector met visie, lobby, webinars, praktijkgerichte sessies en een ledenomgeving vol informatie. Daarnaast hebben we een stappenplan ontwikkeld en wordt er gewerkt aan ethische richtlijnen voor de inzet van AI.’
Een belangrijk punt binnen de AI Act is de noodzaak van menselijke controle. Dat sluit aan bij het uitgangspunt van KSF. ‘Wij trekken – ook in onze visie – in twijfel of AI in de toekomst de mens volledig zal kunnen vervangen’, aldus de KSF-directeur. ‘De mate waarin dit zal gebeuren zal afhangen van de aard van het klantcontact en het risicoprofiel van de betreffende AI-oplossing. Maar ook dan zal een vorm van menselijk toezicht nodig zijn en blijven. AI gaat in onze ogen niet over de vervanging van de mens, maar over de slimme samenwerking tussen mens en technologie.’
Bewustzijn groeit, maar blijft in ontwikkeling
KSF ziet dat het bewustzijn in de sector toeneemt. ‘Voor zover wij dat kunnen overzien zijn de meeste klantcontactorganisaties zich wel bewust van het bestaan van de AI Act en de verplichtingen die daaruit voortvloeien. De belangrijkste vraag is vooral of – bij het ontbreken van jurisprudentie – die kaders in de praktijk altijd even helder zijn en of die kaders de snelle ontwikkeling van de technologie kunnen bijhouden.’ De implementatie van AI vraagt een duidelijk visie en strategie over hoe je er wilt zijn voor je klanten en medewerkers en welk probleem je voor wie wilt oplossen. ‘Wij zijn ervan overtuigd dat de kaders die de AI Act en de KSF-visie geven, bijdragen aan het op een serieuze en verantwoorde wijze omgaan met de inzet van AI binnen klantcontact’, aldus Masselink.
Tekst Tamara de Vos | Beeld Studio BBP/ Zuiver Beeld
Dit artikel is gepubliceerd in CustomerFirst #05 - 2025