In de tijd dat ai nog het onderzoeksterrein van vooral wetenschappers was, bleef het risico ervan beperkt. Maar de verdere ontwikkeling van ai en het groeiende aanwezigheid ervan in bedrijfsleven en maatschappij heeft de impact vele malen groter gemaakt. Fouten, verkeerde interpretaties en bevooroordeelde resultaten liggen op de loer. Verantwoord gebruik van ai zou daarom het uitgangspunt moeten zijn voor elke organisatie die ai holistisch aanpakt.
Wat is de definitie van verantwoorde ai? Binnen verantwoorde ai dienen de resultaten van een ai-systeem in lijn te zijn met zowel de goede bedoelingen van een organisatie als de gewenste impact buiten die organisatie. Dit betekent dat systemen zich moeten richten op personen die de meeste impact van ai ondervinden. Organisaties dienen de juiste methoden te integreren bij de ontwikkeling en implementatie van hun ai-projecten. Elke organisatie heeft z’n eigen beoogde effecten met ai, maar de echte uitdaging is hoe je verantwoorde ai integreert in de reeds aanwezige ai.
Ethische regels
De eerste stap voor een bedrijf dat besluit om ai in te zetten, is het opstellen ethische regels waarbinnen de ai moet opereren. Leidinggevenden dienen de bredere impact van ai uiteen te zetten en deze doelen breed te communiceren. Een dergelijke definitie en de opgestelde criteria – die verband houden met de waarden van het bedrijf – hebben twee voordelen: de organisatie neemt een duidelijk standpunt in én het vergemakkelijkt de communicatie van deze ethiek aan alle teams.
Governance en empowerment
De andere twee pijlers voor verantwoord gebruik van ai, governance en empowerment, zijn net zo belangrijk als het definiëren van ethiek. Governance gaat over het creëren van controle-momenten in het proces en zorgt ervoor dat processen zijn te volgen. Daarbij gaat het niet alleen om hoe goed het model in de loop van de tijd presteert of hoe robuust een systeem is, het gaat om de belangrijke vragen: wie heeft toegang tot de gegevens, voor wie zijn ze, voor welke specifieke doeleinden worden ze gebruikt, waar worden deze modellen ingezet en wie heeft besloten wanneer ze werden geïmplementeerd?
Empowerment wijst leidinggevenden op de juiste methoden om het doel van ai te bereiken, en op het verstrekken van de juiste tools aan degenen die bij de ontwikkeling van ai betrokken zijn. Zo kunnen ze daadwerkelijk verantwoorde producten bouwen. Dit betekent ook dat ai-ontwikkelaars over methoden moeten beschikken om het team te waarschuwen voor mogelijke valkuilen.
Onderzoek de data
Om ethisch verantwoorde ai de ruimte te geven, zullen bedrijven medewerkers erbij moeten betrekken die model staan voor degenen die de algoritmen later gaan gebruiken. Een ai-algoritme is gebaseerd op reeds bestaande data en die gegevens bepalen het gedrag van toekomstige ai. Kijk maar naar de subjectiviteit die aan het licht kwam bij de screening van sollicitanten door middel van ai. Daarbij kregen bedrijven meer cv’s van succesvolle mannelijke kandidaten dan succesvolle vrouwen. Vanwege het gebruik van historische data over werving, stonden de algoritmen ingesteld om vrouwen strenger te screenen dan mannen.
Dit laat zien dat data vaak vooringenomen zijn. Het voorbeeld van vrouwen die automatisch worden uitgesloten van wervingsprocessen houdt verband met vooroordelen uit het verleden. Sterker, als recruiters het algoritme verstrekken op basis van hun eigen criteria, zal ai dezelfde tekortkomingen vertonen. Om ai verantwoord te laten werken, moeten bedrijven hun modellering en validatietechnieken onderzoeken en zich ervan bewust zijn dat elke stap in het creëren van een ai waarschijnlijk vooroordelen en afwijkingen veroorzaakt.
Er zijn verschillende manieren om vooroordelen in datasets te onderzoeken, voordat je met modelontwikkeling begint. Een daarvan is exploratory data analysis (eda). Dit is een goede manier om de zoektocht naar onderliggende vooroordelen in gegevens bloot te leggen. Eda helpt teams hun datamonsters beter te begrijpen en samen te vatten. Ook is het zo eenvoudiger om concrete conclusies te trekken uit de dataset die een populatie vertegenwoordigt. Inzicht is ook te vergroten door de structuur van een dataset te visualiseren.
Data zijn ook te verkennen met datasheets om problemen in die data aan te wijzen en eventuele hiaten te erkennen. Bij het aanmaken van datasheets moet de maker antwoord geven op vragen over datasetverzameling, motivatie, samenstelling, labeling, voorbehandeling, beoogd gebruik, onderhoud en distributie. Dit helpt bouwers om na te gaan hoe data zijn verzameld, zodat mogelijke bronnen van vooroordelen transparant worden.
Overschakelen naar een nieuwe AI-mentaliteit
Tegenwoordig heeft een aanzienlijk deel van de bedrijven die met data science zijn gestart, dit semi-organisch gedaan. Het is niet ongebruikelijk dat binnen een organisatie verschillende teams AI ontwikkelen, die allemaal verschillende technologieën en data gebruiken. Bedrijfsbrede governance kan het mogelijk maken om lopende projecten te volgen en te visualiseren, om te zien welke gegevens worden gebruikt en hoe deze worden ingezet. Het is belangrijk dat bedrijven een cultuur creëren waarin verantwoorde AI over de hele linie wordt gewaardeerd. Bij verantwoording gaat het erom AI mensgericht te maken en dat je met de juiste mensen bespreekt hoe modellen werken zoals ze bedoeld zijn.
Er is geen wondermiddel als het gaat om verantwoorde AI, en het werk aan verantwoorde systemen moet voortdurend worden geëvalueerd. Zorgen bedrijven ervoor dat ze hun ethiek onder woorden kunnen brengen en governance en empowerment invoeren terwijl ze ook de data testen? Dan verkeren ze in goede positie om verantwoorde AI in de hele organisatie te integreren.
Dubito ergo sum want ik ken geen verantwoorde systemen, ik ken wel mensen die verantwoording hebben voor bepaalde besluitvorming zoals de inzet van autonoom denkende systemen die soms doden tot gevolg hebben. Nu zijn duizenden doden alleen maar statistiek want dogmatische AI van denken in goed en slecht betekent namelijk dat er niet alleen een oordeel geveld wordt over het handelen maar dat er vaak ook een onderwerping is door de acceptatie van dit oordeel. Ethiek en AI lijken me daarom lastig te combineren omdat na verloop van tijd niet alleen onze kijk op het gedrag van mensen veranderd maar dat het gedrag zelf ook aanpasbaar is hoewel ik misschien beter kan spreken van corrigeerbaar.
Het is altijd goed om vragen te stellen over de verzameling, motivatie, samenstelling, labeling, voorbehandeling, beoogd gebruik, onderhoud, distributie en dergelijke van datasets om tot een oordeel over de proportionaliteit van de gegevensverwerking te komen. Dit soort classificaties gelden namelijk niet alleen voor AI want bedrijven kunnen hun ethiek prima onder woorden brengen en de governance op papier goed regelen maar het toezicht op het datagebruik ontbreekt veelal. Of deze is op ouderwetse Machivellistische manier zodanig verdeeld dat de eerdere dwingende ogen zijn veranderd in adviserende ogen.