Data geven inzichten en helpen mee aan maken van betere beslissingen en het stroomlijnen van processen. In combinatie met intelligente algoritmen en artificiële intelligentie (ai) worden taken geautomatiseerd, berekeningen uitgevoerd en besluiten genomen met behulp van aanbevelingen of geheel zonder menselijke tussenkomst. Maar in het enthousiasme voor de waarde van data, dreigt data-governance op de achtergrond te raken waardoor ethische principes onder druk komen te staan. Organisaties, zeker in het publieke domein, beseffen dit en nemen maatregelen om zowel in wettelijke kaders te blijven als om duidelijkheid te verschaffen voor de samenleving hoe zij met data omgaan.
Het ‘wegautomatiseren’ van handwerk en tijdrovende, repeterende handelingen biedt organisaties in vele opzichten uitkomst. In de eerste plaats is er vandaag de dag zo veel data beschikbaar dat het ondoenlijk is voor medewerkers om dit te analyseren, laat staan er een oordeel over te vellen. Door het verzamelen van de data op een dataplatform en het inzetten van algoritmen en ai is het vervolgens wel snel te analyseren. Beslissingen kunnen in hoge mate worden geautomatiseerd. In de tweede plaats biedt deze manier van werken een (deel van een) antwoord op de krappe arbeidsmarkt. Je kunt gewoonweg meer taken uitvoeren met minder mensen; mensen die op andere plekken in de organisatie hard nodig zijn.
Gemeengoed
Het werken met algoritmen wordt dan ook gemeengoed. Algoritmen bepalen hoeveel geld we kunnen lenen, of we recht hebben op een uitkering, hoe hoog de verzekeringspremie is die we moeten betalen en welke vervolgopleiding het best bij ons past. Daar merken we niets van, het gebeurt op de achtergrond, op basis van beschikbare data en gestuurd door wetten en bedrijfsregels.
In haar boek ‘Weapons of math destruction’ (2017) legt auteur Cathy O’Neil uit dat het inzetten van algoritmen in essentie een goede zaak zou zijn. Iedereen wordt immers gelijk behandeld en beoordeeld volgens dezelfde regels. Deze vlieger gaat niet altijd op, stelt zij. De ai-modellen die worden gebruikt, blijken in veel gevallen ondoorzichtig, niet gereguleerd en zijn niet te betwisten. Dat leidt tot verschillende risico’s zoals onjuiste interpretaties. Dit is vooral het geval als we het hebben over persoonsgegevens, waar in de media veel over te doen is. En terecht, we moeten als samenleving nadenken over ethische bezwaren bij het inzetten van algoritmen.
Maar laten we ook oog houden voor de positieve kanten. Het gaat immers niet altijd om persoonsgegevens. In de industrie zien we bijvoorbeeld dat data en ai/ml worden benut tijdens het productieproces. En in de zorg worden algoritmen ingezet om tot een nog snellere en nauwkeurigere diagnostiek.
Bedenkelijke modellen
Op basis van bedenkelijke modellen worden scores toegekend die leiden tot verkeerde analyses en eenzijdige beslissingen. We zien dit ook terug bij robots die cv’s moeten beoordelen. Zo wordt er geconstateerd dat mannen op basis van hetzelfde cv vaker worden aangenomen. Het algoritme ‘leert’ dus dat het beter is om een man aan te nemen. Dit soort vooroordelen staat inclusiviteit op de werkvloer in de weg.
Wanneer we werken met data, moeten we onszelf dan ook de vraag stellen: wat gebeurt er als ik een gegeven, zoals het geslacht van een sollicitant, toevoeg of juist verwijder uit de analyse? Voegen deze data daadwerkelijk waarde toe aan de analyse en het besluitvormingsproces of zorgen we juist voor vooroordelen en vergroten we zo het risico op verkeerde beslissingen? Het Rathenau Instituut adviseerde onlangs aan uitvoeringsinstanties van de overheid om te investeren in ethische expertise in de gehele organisatie.
Een tweede punt van advies was om transparant te zijn over de gebruikte algoritmen: wat is het doel, wat doen ze en wat betekent dit voor betrokkenen? Er dient ook een algoritmeregister te komen, iets wat een aantal grotere gemeenten al op orde heeft. Het algoritmeregister is een overzicht van de algoritmes die bijvoorbeeld de gemeente Amsterdam gebruikt bij gemeentelijke dienstverlening. Per algoritme vind je algemene informatie over de bedoeling en werking van het algoritme.
Onvoldoende
De inrichting van een datahuishouding die geschikt is voor het ethisch gebruik van algoritmen en ai kent veel verschillende aspecten. Data-governance is hierbij in het verleden onvoldoende meegenomen. Het is tijd om dat nu recht te zetten. De technologieën die je als organisatie kunnen helpen, zijn beschikbaar en volwassen. Tegelijkertijd zal je moeten werken aan het bewustzijn binnen de organisatie over de gevolgen van het inzetten van bepaalde data. Train medewerkers zodat zij alleen een beslissing kunnen nemen wanneer zij begrijpen waarom een model voorschrijft wat het voorschrijft. Daarmee voorkom je dat het een ‘computer says no’ wordt en dat algoritmes onbedoeld leidend worden in plaats van adviserend.
Ten slotte is het goed om op te merken dat data-governance gaat om het managen van data van het moment dat het ontstaat tot het moment dat het verwijderd wordt. Dat betekent ook dat er waarborgen moeten zijn voor het verwerken van data voor specifieke doeleinden. Dat zijn waarborgen met betrekking tot kwaliteit, tijdigheid, privacy, gevoeligheid, ethiek. Die waarborgen moeten worden toegepast in systemen, maar nog belangrijker: er moeten mensen (rollen, verantwoordelijkheden) zijn voor het creëren, verwerken en bewaken van data. Alleen zo haal je alle mogelijke waarde uit je data, zonder de risico’s uit het oog te verliezen.
(Auteur Matthijs Vogt is data-platform-architect bij Ilionx.)