Naarmate artificiële intelligentie (ai) belangrijker wordt in onze samenleving groeit binnen onze bedrijven, het bewustzijn dat deze ai 'te menselijk' is. Ze weerspiegelt de vooroordelen van de gegevens waarvan ze geleerd heeft. Is ai daarom gedoemd om louter onze eigen denkwijzen te weerspiegelen? Niet noodzakelijk. Vooroordelen zijn makkelijker te detecteren en te corrigeren in ai dan bij de mens zelf.
Systemen voor geautomatiseerde besluitvorming zijn aan een ongeziene opmars bezig. Rechtvaardigheid is daarbij een belangrijk thema geworden in de microkosmos van ai. Een voorbeeld: zal ai uw eerste stappen op de arbeidsmarkt doorkruisen omdat je een vrouw bent of omdat je een migratieachtergrond hebt? De kans is jammer genoeg reëel.
Eeuwenoud debat
In plaats van te wachten op een reguleringsgolf kunnen managers binnen bedrijven nu al werk maken van faire ai. Bij de ontwikkeling van ai-oplossingen gaat de aandacht van ingenieurs vandaag voornamelijk uit naar de nauwkeurigheid van softwareoplossingen, niet hoe fair zij zijn.
De realiteit is evenwel dat ai het zich niet langer kan veroorloven om blind te zijn voor fairness. De vraag is of we bereid zijn om de compromissen die hiermee gepaard gaan te aanvaarden. ‘Faire ai’ is per definitie immers minder nauwkeurig.
Dat is logisch. Hoe nauwkeuriger een bepaald model is, hoe meer vooroordelen het bevat. Dit komt omdat ai leert van gegevens uit de reële wereld. Dit brengt het risico met zich mee dat ai bijvoorbeeld vrouwen oriënteert naar zorgberoepen en mannen naar technische beroepen – waar zij momenteel oververtegenwoordigd zijn.
Dit is geen toekomstmuziek: een betreurenswaardig voorbeeld is de rekruteringstool van Amazon die recent nog discrimineerde tegen vrouwen.
Om als fair beschouwd te worden, heeft ai nog een hele weg af te leggen. Deze uitdaging creëert ook kansen. Een beleid inzake fairness in ai is een krachtig instrument dat ons toelaat kritisch na te denken over vragen rond vooroordelen en discriminatie. Ai op een slimme manier heruitvinden, kan zelfs helpen onze samenlevingen eerlijker en minder bevooroordeeld te maken.
Hoe maken we ai fair?
Fairness introduceren in ai kan in grote lijnen op drie manieren. Een eerste is dat we de focus leggen op ‘gelijke uitkomsten’. Hierbij schuiven we een duidelijk doel naar voor dat onze software moet halen. Bijvoorbeeld: rekruteringssoftware die evenveel mannen als vrouwen moet aanwerven. Die doelstellingen zijn normatief, waardoor deze vorm van fairness onze maatschappij helpt drijven naar een nieuw instelpunt.
Gelijke uitkomsten gaan echter volgens velen op meer dan een manier voorbij aan de realiteit. Een andere optie is om fairness in te vullen als ‘demografische pariteit’. Dit is een meer pragmatische invulling van rechtvaardigheid, die de situatie zoals hij is nabootst. De rekruteringssoftware uit ons voorbeeld zou in dit geval het onevenwicht tussen mannen en vrouwen in de zorgsector in stand houden. De software volgt met andere woorden eerlijk en getrouw de status quo en voorkomt daardoor dat de slinger nog verder door zou zwaaien.
Tot slot kan ai ook prioriteit geven aan ‘gelijke opportuniteiten’, waarbij het blind is voor vooroordelen en enkel rekening houdt met objectieve feiten. In het geval van onze rekruteringssoftware betekent dit dat die enkel kijkt naar hoe competent een kandidaat is, ongeacht de achtergrond of gender. Doordat er geen quota’s opgelegd worden, is er bij deze vorm van ai geen discriminatie (positief noch negatief) mogelijk. Deze meritocratische vorm van fairness kan evenwel tot demografische ongelijkheid leiden als verschillende bevolkingsgroepen ook daadwerkelijk verschillende competenties vertonen.
Tijd om te kiezen
Er bestaat niet één mirakeloplossing om fairness en nauwkeurigheid met elkaar te verzoenen. Voor elk stuk software moeten we de twee tegen elkaar afwegen. De keuzes die daaraan verbonden zijn, liggen vaak gevoelig. Moet onze software wel vooroordelen de wereld uit helpen? Wat betekent het om fair te zijn? Willen we fair handelen in de huidige maatschappij, of de maatschappij zelf ook aansporen tot verandering? Hoe meten we de fairness van onze ai? De antwoorden liggen niet voor de hand.
In afwachting van duidelijke richtlijnen over ‘rechtvaardige ai’ moeten bedrijven wel eerlijk en transparant durven zijn: welk soort beslissingen neemt onze software en hoe gebeurt dit?
Op lange termijn moeten we wel een positie durven innemen over faire ai. De hamvraag is hoe softwareoplossingen meerwaarde kunnen bieden in onze samenleving én een rechtvaardigheidsgevoel in de hand kunnen werken. Het bewustzijn hierover groeit en de oplossingen zijn er vandaag al. Nu moeten we gewoon nog de knopen durven doorhakken.
(Auteur Laurent Sorber is cto en medeoprichter van Radix.)
En dan zeggen ze dat ik ooit moeilijke opinies schreef over controversiële onderwerpen terwijl het ondanks de 8 vraagtekens nog maar de vraag is of de auteur gaat reageren op de reacties. En ja, ik mag me graag weerspiegelen aan eigen denkwijzen om de eerste vraag te beantwoorden. Sommigen noemen dat eigenwijsheid maar die zijn gewoon verkeerd geprogrammeerd;-)