ECP|Platform voor de InformatieSamenleving komt met de Artificial Intelligence Impact Assessment (AIIA). Dat stappenplan speelt in op de angst voor de gevolgen van ai die onder sommigen heerst. Doemdenkers vrezen bijvoorbeeld voor oncontroleerbare algoritmes die hun eigen gang gaan. Het ai-stappenplan moet zorgen voor meer rust in het debat. Staatssecretaris van Economische Zaken en Klimaat, Mona Keizer, nam de eerste versie in ontvangst.
Dat was tijdens het jaarcongres van ECP|Platform voor de InformatieSamenleving op 20 november in Den Haag. Volgens de samenstellers helpt de Artificial Intelligence Impact Assessment (AIIA) bedrijven om artificial intelligence verantwoord in te zetten, nu slimme algoritmes steeds vaker taken van mensen overnemen. Bovendien willen ze hoogoplopende discussies over ai stoppen en focussen op de kansen die de technologie biedt voor de samenleving en economie.
ECP: ‘Aan de hand van een stappenplan, bestaande uit acht stappen, maken bedrijven inzichtelijk welke juridische en ethische normen een rol spelen bij de ontwikkeling en inzet van ai-toepassingen, en welke afwegingen ten grondslag liggen aan keuzes en besluiten.’
Als voorbeeld van een casus waarin dit speelt noemt Daniël Frijters van ECP een ai-selectietool voor het screenen van sollicitanten: ‘Het algoritme kan op basis van historische data leren welke kandidaten geschikt zijn voor een leiderschapsfunctie. Als niet wordt gekeken naar de betrouwbaarheid van de data, dan zullen vooral mannelijke kandidaten worden geselecteerd, omdat de selectietool op basis van de gebruikte historische data heeft geleerd dat vrouwen minder leiderschapsfuncties bekleden. Vrouwelijke kandidaten worden dus onbewust door het algoritme gediscrimineerd.’
Betrouwbaarheid databron controleren
Eén van de stappen in de AIIA is het controleren van de betrouwbaarheid van de databron. Een ander voorbeeld is het automatisch beoordelen of wetgeving op iemand van toepassing is. Dit kan misschien wel sneller en beter met een slim algoritme, maar een ambtenaar van vlees en bloed heeft de ruimte en de plicht om vanuit een fundamentele waarde als ‘menswaardigheid’ te handelen en individuele afwijkende situaties te beoordelen. Volgens de samenstellers worden in de AIIA dergelijke ethische en juridische vraagstukken getackeld, zodat het algoritme en de ambtenaar volgens menselijke waarden kunnen samenwerken.
Frijters: ‘Het debat rondom ai maakt emoties en ethische discussies los. Dat is gebruikelijk bij ict-toepassingen, – denk aan discussies rondom de slimme meter en de ov-chipkaart -, maar bij ai lopen de gemoederen extra hoog op.’ Dat heeft volgens ECP alles te maken met het zelflerend vermogen van slimme algoritmes. Men vraagt zich bijvoorbeeld af of die algoritmes nog te controleren zijn en of zij de mens zullen overheersen. Andere vragen: Beoordelen ze situaties vanuit menselijke ethische en juridische principes, of gaan ze hun eigen gang en leren ze zichzelf van alles aan?
Een groot aantal deskundigen en diverse ministeries hebben meegewerkt aan de totstandkoming van de AI Impact Assessment. De lancering van dit instrument is een vervolg op het whitepaper dat eerder dit jaar is verschenen. Daarin keert ECP zich tegen het doemdenken over ai, benoemt maatschappelijke en ethische risico’s en geeft enkele tips hoe daarmee om te gaan. De AIIA is uitgebreider en gaat veel verder.
Ethische raad
Ook bedrijven zijn bezig met het onderwerp. Bij SAP is bijvoorbeeld een ethische raad in het leven groepen die zich buigt over ethische en maatschappelijk onderwerpen rondom ai en machine learning rondom de inzet van bedrijfssoftware.
Bij Google zouden medewerkers zijn opgestapt omdat ze niet willen dat hun technologie wordt gebruikt in toepassingen van het Amerikaanse leger.