Noodzakelijke inclusiviteit
Het woord ‘bias’ komt naar voren in zowel maatschappelijk als wetenschappelijk debat over de inzet van artificiële intelligentie (ai). Het verwijst doorgaans naar een vooroordeel dat iets of iemand vaak onbedoeld heeft. Wanneer dit vooroordeel leidt tot een afwijking in besluitvorming vergeleken met een situatie wanneer dit vooroordeel er niet zou zijn, dan is een bias doorgaans onwenselijk.
Deze vooroordelen ontstaan wanneer systemen, gebaseerd op algoritmen, bevooroordeelde resultaten produceren. Deze bias kan voortkomen uit de datasets waarmee de ai wordt getraind (denk aan een dataset uit de jaren negentig uit een specifieke wijk in een grote stad), de ingebouwde aannames in het algoritme, of de programmeerbenaderingen. Het gevaar van ai-bias is dat het kan leiden tot oneerlijke of onnauwkeurige resultaten, vooral in belangrijke domeinen zoals gezichtsherkenning, besluitvorming en voorspellende analyses.
Dit is in het bijzonder het geval wanneer een bias invloed heeft op publieke besluitvorming met grote gevolgen voor individuele burgers. Denk aan het Toeslagenschandaal (hierbij ging het om algoritmische ketens in fraudebestrijding), of aan ai toegepast bij ‘preventive policing’, waarbij gediscrimineerd wordt op huidskleur. Maar het kan net zo goed grote negatieve effecten hebben wanneer het toegepast wordt door bedrijven. Denk aan het voorbeeld van Amazon waarin een geautomatiseerd recruitmentsysteem een genderbias bleek te hebben. En soms is het onderscheid tussen overheid of bedrijf niet helemaal scherp. Denk aan algoritmische ketens die op basis van verschillende data voorspellen of iemand aanvullende zorg nodig heeft. Ook hierin zijn talloze voorbeelden te vinden waarin snel een gender of rassen-bias ontstaat.
Spectrum
Aan de andere kant van het spectrum staat menselijke bias. Dit is de neiging van individuen om bewuste of onbewuste vooroordelen te hebben, die invloed hebben op hun dagelijkse beslissingen en interacties. Menselijke bias is een diepgeworteld aspect van onze samenleving en manifesteert zich in verschillende vormen, variërend van subtiele onbewuste vooroordelen tot openlijke discriminatie. Hier is al veel onderzoek naar gedaan, waarbij we steeds zoeken naar meer bewustwording rondom die menselijke bias. Dat is met name belangrijk in de context van uitvoeringsdiensten van de overheid en rechtspraak, maar ook wanneer we sollicitanten beoordelen bij een vacature.
Zowel menselijke als artificiële biases worden veelvuldig besproken. Wat opvalt, is dat het vaak wel los van elkaar onderzocht en becommentarieerd wordt. Dat terwijl juist de interactie tussen mens en machine biases veroorzaakt (of kan oplossen). Zo worden ai-systemen vaak ontwikkeld door menselijke programmeurs, wat betekent dat menselijke vooroordelen hun weg kunnen vinden in deze systemen. Bovendien kan ai, met zijn vermogen om snel en op grote schaal te opereren, bestaande vooroordelen versterken en verspreiden op manieren die menselijke bias alleen nooit zou kunnen. Tegelijkertijd zien we ook dat ai juist kan helpen in het tegengaan van menselijke biases of andere vormen van onzorgvuldigheid, mits op de juiste manier toegepast. Neem het voorbeeld van een rechter die te maken krijgt met een emotionele familiezaak. Ai kan in deze situatie optreden als een ‘critical friend’ door het analyseren van eerdere, vergelijkbare zaken en door het aanbieden van objectieve data en patronen die menselijke rechters zouden kunnen missen vanwege (onbedoelde) emotionele betrokkenheid. Of neem het voorbeeld van ai als slimme helper van een onderzoeksjournalist die niet de tijd heeft om handmatig door een grote hoeveelheid beeldmateriaal heen te gaan bij een onderzoek naar een politiek beladen gebeurtenis. Juist bij een casus met veel data die zich onoverzichtelijk presenteert, kan de persoonlijke bias van de journalist een onbedoeld grotere rol krijgen, en kan ai helpen dit tegen te gaan.
Vervagen
Het is noodzakelijk om bewustzijn te creëren en strategieën te ontwikkelen die verder gaan dan een focus op ofwel menselijke, ofwel artificiële biases. Er is immers eerder sprake van een voortdurende wisselwerking tussen de twee, waardoor soms het onderscheid kan vervagen. Wanneer er door menselijke programmeurs een onbedoelde ai-bias ontstaat in de ai-hulp van de rechter, die vervolgens de menselijke bias van die rechter te lijf moet gaan, ontstaat er een warrig geheel op ethisch vlak. Diezelfde rechter wordt vervolgens weer beïnvloed, en levert weer trainingsdata voor de volgende ai…
Oplossingen kunnen we vinden aan de voorkant van ontwerpprocessen van ai, en de omgeving waarin ai moet fungeren. Dit omvat het diversifiëren van de datasets die gebruikt worden om ai te trainen, het implementeren van ethische richtlijnen in de ontwikkeling van ai-systemen, en het bevorderen van diversiteit en inclusiviteit in de teams die deze systemen bouwen en gebruiken. Gezien de grote impact van ai op ons dagelijkse leven is inclusiviteit meer dan ooit een noodzaak. Door inclusiviteit politiek beladen te maken en soms weg te zetten als een woke uitgangspunt gaan we voorbij aan het feit dat voor veilige en betekenisvolle ai dit simpelweg een randvoorwaardelijk designprincipe is om werkende en zinnige producten te kunnen maken.
Erdinç Saçan is schrijver en docent bij Fontys ICT
Bart Wernaart is lector Moral Design Strategy