AI als nieuwe moraalridder
‘Computerwetenschappers focusten zich voorheen niet op de problemen rondom ethiek en eerlijkheid in machine learning en artificial intelligence. Nu wel.’ TU/e-hoogleraar Data Mining, Mykola Pechenizkiy, stelde tijdens de bijeenkomst ‘Artificial Moral Agents’ vast dat er een ethische verschuiving plaatsvindt in het AI-landschap.
Het Center for Humans & Technologie, onderdeel van TU Eindhoven, organiseerde onlangs een wetenschappelijke samenkomst over de ethische verantwoordelijkheden van AI-systemen. Cursor, het magazine van de Brabantse universiteit, deed verslag van het symposium.
Focusverschuiving
Pechenizkiy was één van de keynotesprekers en ziet de ontwikkeling van de gebieden waar kunstmatige intelligentie in opkomst is. De data mining-expert stelt vast dat ontwikkelaars steeds vaker filosofen, sociologen en andere experts buiten het vakgebied raadplegen.
Dat ethiek en eerlijkheid in de implementatie van zelflerende algoritmes van groot belang is, wordt geschetst middels voorbeelden van systemen die bedoel waren om eenvoud uit te dragen maar een ongewenste uitwerking hadden. Zo werd op het podium onder meer het voorbeeld van discriminerende algoritmes aangehaald.
Bevooroordeeld
Door mens-machine-interactie zijn de problemen die deze algoritmes veroorzaakten volgens de TU/e-hoogleraar niet onoplosbaar. Wél stelt hij dat er een doordacht ethisch verantwoord systeem noodzakelijk is voor het minimaliseren van de ongewenste impact van AI. ‘Algoritmes zijn bevooroordeeld op allerlei manieren.’ Anderzijds kan kunstmatige intelligentie ook op een andere manier worden ingezet. Digitaal expert CeesJan Mol verklaart: ‘Inmiddels kunnen we zulke ideeën koppelen aan harde data. Je kunt vaststellen dat er echt iets aan de hand is.’
Autonome moraalridder
Desalniettemin blijft er volgens de TU/e-sprekers angst ontstaan voor een volledig autonome robot. Maar: ‘Zolang robots nog geen bewuste, autonoom redernerende sociale actoren zijn, kunnen we ons beter druk maken over hoe robots te bouwen die ethisch verantwoord functioneren', klonk het. Ethiekonderzoeker Elizabeth O’Neil, eveneens verbonden aan de Eindhovense universiteit, weerlegde dat hier ook kansen zijn. Zo kunnen systemen ook worden ingezet als ‘moral agents’: algoritmes die mensen kunnen helpen bij het nemen van ethische beslissingen.
- focusverschuiving
- TU
- kunstmatige intelligentie
- AI
- ethiek
- Technische Universiteit Eindhoven
- TU Eindhoven
- artificial intelligence
- algoritme
- Artificial Moral Agents
- zelflerende algoritmes