Artificiële intelligence (ai) stelt organisaties in staat data optimaal te benutten en bedrijfsprocessen te automatiseren. Maar de technologie ligt onder een vergrootglas. Omwille van transparantie is het voor organisaties belangrijk om aan te tonen dat zij ai verantwoord inzetten. Een 'responsible ai framework' biedt uitkomst. De mondige burger van nu eist – en heeft – recht op uitleg.
Ai is volop aanwezig in het dagelijks leven. En niet alleen in de vorm van algoritmes die berekenen welke serie jij op Netflix wilt kijken. Steeds vaker wordt ai bijvoorbeeld ook gebruikt om te bepalen of iemand in aanmerking komt voor een lening of bij het selecteren van kandidaten voor sollicitatieprocedures.
Het gebruik van ai voor zulke invloedrijke beslissingen brengt nieuwe verantwoordelijkheid met zich mee. Als organisatie moet je erop kunnen vertrouwen dat aanbevelingen van ai juist en inzichtelijk zijn en niet discrimineren. Voor bedrijven is het daarom zaak nu te investeren in verantwoordelijke ai om in de toekomst vragen te voorkomen die je niet kunt beantwoorden.
Black box
Een groot probleem met ai is de zogeheten ‘blackbox-besluitvorming’. Simpel gezegd komt dit erop neer dat de input in een systeem (bijvoorbeeld informatie uit een cv) leidt tot een output (bijvoorbeeld een aanbeveling of deze geschikt is voor een openstaande functie), waarbij er geen enkel inzicht is in hoe deze beslissing precies tot stand kwam. Waarom ai bepaalde keuzes heeft gemaakt, blijft een mysterie. Betrokkenen moeten maar aannemen dat de beslissing juist is, zonder dat zij dit kunnen valideren.
Blackbox-besluiten leiden natuurlijk tot ondoorzichtige situaties die je als organisatie wilt voorkomen. Een sollicitant die een baan wordt geweigerd, heeft recht om te weten waarom. Dan volstaat het niet om te zeggen dat ‘de computer dat nu eenmaal heeft berekend’. Daarnaast loop je bij ondoorzichtige besluitvorming ook het risico dat jouw ai-systeem discrimineert zonder dat jij het weet. Dit kan negatieve pr of zelfs een rechtszaak opleveren. En als beleidsbepaler wil je niet alleen weten wat je moet doen, maar ook waarom.
Oplossingen
Gelukkig zijn er oplossingen in de markt waarmee ai-systemen eerlijk en inzichtelijk worden, bijvoorbeeld door een responsible ai framework te implementeren in nieuwe of bestaande ai-toepassingen. Deze methodiek stelt organisaties in staat keuzes van ai uit te leggen, oneerlijkheid tegen te gaan en zo vertrouwen met de klant op te bouwen.
Hoe geavanceerder een ai-systeem, des te ingewikkelder is het om de besluitvorming van dat systeem te begrijpen. Maar juist die geavanceerde ai-systemen zijn nodig om steeds moeilijkere vraagstukken op te lossen. Het implementeren van een responsible ai framework maakt het alsnog mogelijk om de keuzes van ai te doorgronden.
Actie ondernemen
Voorkomen is beter dan genezen en dus doen bedrijven en organisaties er verstandig aan om nu actie te ondernemen. Een responsible ai framework kun je toepassen in nieuwe projecten of door bestaande ai-toepassingen aan te passen. Hierbij maakt het niet uit voor welk doel de organisatie ai gebruikt.
Welke oplossing ook past bij de organisatie, het is tijd te investeren in verantwoordelijke ai. Alleen zo voorkom je vragen die je niet kunt beantwoorden.
Marijn Kroes, data scientist bij Viqtor Davis, Data Craftsmanship
Wat als een responsible ai-programma van de Belastingdienst uit zichzelf een zwaarder gewicht toekent aan houders van een dubbel paspoort bij het opsporen van fraude?