Artificiële intelligentie (ai) is wereldwijd een gesmaakt gespreksonderwerp aan de eettafel, niet in het minst door ChatGPT, die verbluft met zijn vermogen levensechte teksten en zelfs computercodes samen te stellen. Maar wat gebeurt er als ai verkeerde beslissingen neemt?
Vooroordelen, en met name gendervooroordelen, komen vaak voor in ai-systemen en leiden tot discriminatie en verminderde transparantie tot veiligheids- en privacyproblemen. In het ergste geval beschadigt een verkeerde ai-beslissing een carrière of kost het zelfs levens. Als we het probleem van bevooroordeelde ai niet aanpakken, riskeren we een onevenwichtige toekomst; één waarin ai nooit zijn volledige potentieel als instrument voor het grotere goed zal bereiken.
Ai is slechts zo goed als de gegevens waarop het is getraind. Veel gegevens zijn vandaag getild richting mannen, net als het taalgebruik in zowat alles, van online-nieuwsartikels tot boeken. Uit onderzoek blijkt dat het trainen van ai op Google News-gegevens ertoe leidt dat mannen worden geassocieerd met rollen als ‘kapitein’ en ‘financier’, terwijl vrouwen worden geassocieerd met ‘receptioniste’ en ‘huisvrouw’.
Als gevolg daarvan hebben ai-systemen, getraind op dergelijke bevooroordeelde gegevens en vaak gemaakt door grotendeels mannelijke teams, aanzienlijke problemen gehad met vrouwen, van creditcardmaatschappijen die mannen meer en makkelijker krediet te lijken verlenen, tot in instrumenten die screenen op alles van Covid tot leverziekte. Dit zijn gebieden waar verkeerde beslissingen de financiële of fysieke gezondheid van mensen kunnen schaden.
Dit wordt nog verergerd omdat nog geen kwart van de ai-professionals en datawetenschappers vrouw zijn, aldus onderzoek van het World Economic Forum. Geslacht zelf is ook een complex onderwerp door non-binaire en transgender-uitingen, wat leidt tot meer potentieel voor vooroordelen in alle mogelijke vormen.
Ai is een krachtig instrument dat ons de kans biedt om voorheen onoplosbaar geachte problemen op te lossen, van kanker tot klimaatverandering. Maar als de kwestie van vooroordelen niet wordt aangepakt, dreigt ai onbetrouwbaar en uiteindelijk irrelevant te worden. Als AI-professionals het probleem van de vooringenomenheid niet kunnen aanpakken, zullen deze instrumenten niet bruikbaar zijn en riskeert de kunstmatige-intelligentie-industrie een nieuwe “AI-winter”, zoals in de jaren zeventig, toen de belangstelling voor de technologie opdroogde.
Omgaan met data
In de toekomst zullen bedrijven steeds meer vertrouwen op ai-technologie om hun gegevens in waarde om te zetten. Volgens het Data for Humanity-rapport van Lenovo zegt bijna negentig procent van de bedrijfsleiders dat ai-technologie de komende vijf jaar een belangrijke factor zal zijn om hun organisatie te helpen de waarde van hun gegevens te ontsluiten.
Dus hoe zullen bedrijfsleiders omgaan met het probleem van vooroordelen? Voor het eerst in de geschiedenis beschikken we over deze krachtige technologie, die evenwel volledig is ontstaan uit ons eigen begrip van de wereld. Ai is een spiegel die we onszelf voorhouden. We moeten niet schrikken van wat we in die spiegel zien. In plaats daarvan moeten we deze kennis gebruiken om onze werkwijze te veranderen. Dat begint met ervoor te zorgen dat de manier waarop onze organisaties werken correct is wat gendervertegenwoordiging en inclusie betreft. Maar ook door aandacht te besteden aan de manier waarop gegevens worden verzameld en gebruikt.
Injecteren
Telkens wanneer je gegevens verzamelt, verwerkt of gebruikt, loop je het risico om vooroordelen te injecteren. En die kunnen overal insluipen: als er meer gegevens zijn voor één bepaald geslacht, of als de vragen zijn geschreven door mannen bijvoorbeeld. Voor bedrijfsleiders is het daarom belangrijk om na te denken over waar gegevens vandaan komen, hoe ze worden gebruikt en hoe vooroordelen zijn te vermijden.
Technische oplossingen zullen ook een belangrijke rol spelen. Datawetenschappers hebben niet de luxe om elke regel tekst die in een trainingsmodel wordt gebruikt door te nemen.
Daar bestaan twee oplossingen voor. De eerste is veel meer mensen inzetten om het model te testen en problemen op te sporen. De tweede, betere oplossing is om efficiëntere hulpmiddelen te hebben om bias te vinden, hetzij in de gegevens waarmee de ai wordt gevoed, hetzij in het model zelf. Bij ChatGPT gebruiken de onderzoekers een mentaal leermodel om potentieel problematische gegevens te annoteren. De ai-gemeenschap moet zich hierop richten. Ook hulpmiddelen om de werking van ai transparanter te maken, zijn aan de orde.
Rett-syndroom
Het helpt ook als we de bredere context bekijken. De instrumenten die we vandaag gebruiken, zorgen nu al voor vertekening in de modellen die we in de toekomst zullen toepassen. We kunnen denken dat we nu een biasprobleem hebben ‘opgelost’, maar over vijftig jaar kunnen nieuwe instrumenten of bewijzen onze kijk op bepaalde zaken volledig veranderen. Dit was het geval met de diagnose van het Rett-syndroom, waarbij vooral gegevens van meisjes werden verzameld. Het gebrek aan gegevens over jongens met de aandoening introduceerde enkele jaren later bias in de gegevensmodellering en leidde tot onnauwkeurige diagnoses en behandelingsaanbevelingen voor jongens.
Het zou ook kunnen zijn dat de mens over honderd jaar slechts drie dagen per week zal werken. Dat zou betekenen dat gegevens van vandaag scheefgetrokken zijn naar een vijfdaagse manier van kijken. Gegevenswetenschappers en bedrijfsleiders moeten dus rekening houden met de context. Inzicht in de sociale context is even belangrijk voor bedrijven die vandaag in meerdere gebieden actief zijn.
Het beheersen van dit soort kwesties zal een van de hoekstenen van verantwoorde ai zijn. Voor bedrijfsleiders die ai-technologie gebruiken, zal het belang van deze kwesties toenemen, samen met de belangstelling van het publiek en de regelgeving. Volgens Gartner zal een kleine twee derde van de ai-leveranciers volgend jaar naast de technologie zelf ook een manier aanbieden om mogelijke schade door de technologie aan te pakken.
Bedrijfsleiders moeten grondig plannen voor verantwoorde ai en hun eigen definitie opstellen van wat dit betekent voor hun organisatie. Dat kan alleen door de risico’s te identificeren en te beoordelen waar vooroordelen kunnen binnensluipen. Ze moeten in gesprek gaan met belanghebbenden om potentiële problemen te begrijpen en te onderscheiden hoe ze verder kunnen gaan met best practices. Een verantwoord gebruik van AI zal een lange weg zijn die constante aandacht van het leiderschap vereist.
De voordelen van een verantwoord gebruik van ai en het uitbannen van vooroordelen waar die kunnen optreden, zijn aanzienlijk. Zo kunnen bedrijfsleiders hun reputatie op het gebied van vertrouwen, eerlijkheid en verantwoordingsplicht verbeteren en tegelijkertijd echte waarde leveren aan hun organisatie, klanten en aan de samenleving als geheel.
Bedrijven moeten dit op directieniveau aanpakken om ervoor te zorgen dat vooroordelen worden aangepakt en ai in de hele organisatie op verantwoorde wijze wordt gebruikt. Dit zou kunnen inhouden dat ze een eigen bestuur voor verantwoorde ai oprichten die erop toeziet dat ai-toepassingen worden geëvalueerd op vooroordelen en andere mogelijke problemen. Leiders moeten ook het bredere probleem van vrouwen in Stem (Science, Technology, Engineering en Mathematics) aanpakken, met name in datawetenschap. Vrouwen – met name in leidinggevende functies – zullen een centrale rol spelen bij het oplossen van het probleem van gendervooroordelen in ai.
Bredere kijk
Voor vooruitstrevende organisaties die ai willen gebruiken om de waarde van hun data te ontsluiten, is het van vitaal belang het probleem van gendervooroordelen te begrijpen en te werken aan effectieve manieren om dit probleem aan te pakken.
Zorgvuldig nadenken over de manier waarop ai in een organisatie wordt gebruikt, met behulp van tools om vooroordelen op te sporen en transparantie te garanderen, zal zeker helpen. Maar bedrijfsleiders moeten ook een bredere kijk hebben op waar hun gegevens vandaan komen, hoe ze worden gebruikt en welke stappen worden genomen om vooroordelen te voorkomen. Dit is essentieel om de waarde van hun data te ontsluiten en een inclusieve toekomst te creëren waarin ai optimaal kan functioneren.
(Auteur Ada Lopez is senior manager global product diversity office bij Lenovo.)
“Veel gegevens zijn vandaag getild richting mannen, net als het taalgebruik in zowat alles, van online-nieuwsartikels tot boeken.” Persoonlijke associatie van auteur met woorden zoals kapitein en financier als mannelijk en woorden zoals receptioniste en huisvrouw als vrouwelijk gaat voorbij de taalregels. De receptionist is tenslotte mannelijk en huisman is synoniem aan werkeloos omdat het verschil tussen bezigheden buitenshuis en binnenshuis om de rolverdeling gaat. De AI van kosten en baten mist nog weleens de context van een taal. Want het geslacht is geen complex onderwerp door de non-binaire en transgender uitingen want biologisch is er een duidelijk verschil. Fysieke verschil tussen de vrouwelijke kapitein en de mannelijke kapitein is gewoon een feit waar auteur zich niet uit kan lullen als het om tillen gaat.
“getild richting mannen” is geen goed Nederlands en ziet eruit als een letterlijke vertaling van “weighted against men”. Is dit artikel ook door ChatGPT gegenereerd?
@Fred Smilde Waarschijnlijk is die passage een vertaling uit het Engels. Maar dat vindt de eindredactie niet zo’n probleem, daar wordt de taal alleen maar rijker van.