BLOG – Een studie van Harbers toont aan dat het ontwikkelen van ai nog te vaak in handen ligt van hoogopgeleide, witte mannen. Toegegeven, de tech-industrie wordt steeds bewuster van dit probleem en onderneemt her en der maatregelen. Toch is er nog veel werk aan de winkel. Ai-systemen raken steeds meer geïntegreerd in ons dagelijks leven, van gezondheidszorg tot kredietverlening. Juist daarom is het dringend nodig om bias uit te bannen. Organisaties moeten luisteren naar de input van vrouwen en zo platformen creëren waarin de perspectieven van vrouwen zijn te horen.
Generatieve ai zoals ChatGPT vergrootte de interesse in en het gebruik van ai-technologie. Helaas bevatten veel van deze systemen nog ingebouwde vooroordelen die decennia van vooruitgang in de beeldvorming van vrouwen tenietdoen. Een recent onderzoek van de Universiteit van Washington toonde aan dat ai-kunstgenerator Stable Diffusion vaak afbeeldingen van witte mannen genereert wanneer je het om een ‘persoon’ vraagt. Als vergelijkbare tools zich meer en meer verweven met ons leven, lopen we het risico op een toekomst die witter en mannelijker is. Om dit te voorkomen moeten organisaties vrouwen een leidende rol geven bij het aanpakken van genderbias binnen deze ai-systemen. Denk aan het testen, toezicht houden en signaleren van problemen.
Leiders moeten niet wachten op regelgeving vanuit de overheid, maar zelf in actie komen. Ze moeten luisteren naar de vrouwen die in hun organisatie werken om een toekomst te creëren waarin ai-gendergelijkheid bevordert, en niet belemmert. Zo richtte Lenovo de werkgroep Women & AI op met een vertegenwoordiging van mensen uit verschillende vakgebieden: van ai-experts tot vrouwen in marketing, logistiek en verkoop. De werkgroep heeft als doel om bedrijven te helpen praktische stappen te nemen om risico’s te beperken en een verantwoordelijke en gendereerlijke ai te creëren. Dat zouden meer organisaties moeten doen. Dit is hét moment voor vrouwen om hun stem te laten horen.
Onbevooroordeeld
Om echt onbevooroordeelde systemen te ontwerpen, moet genderbias vanaf het begin worden meegenomen en moeten vrouwen op alle niveaus betrokken zijn. Het creëren van genderdiverse teams is van cruciaal belang. Bij hoge-risicotechnologieën zoals ai is het daarnaast de moeite waard om gebruikerstests uit te breiden voor meer diversiteit, zodat de mensen die het product testen ook daadwerkelijk verschillen van degenen die het ontwerpen. Teams kunnen ook profiteren van inzichten uit het ontwikkelen van technologieën voor bijvoorbeeld mensen met een handicap. Dat kan helpen bij het begrijpen en aanpakken van diverse vormen van discriminatie.
Historisch gezien zijn problemen met genderbias in ai vaak al zeer zichtbaar geweest
Organisaties kunnen niet op hun lauweren rusten. Historisch gezien zijn problemen met genderbias in ai vaak al zeer zichtbaar geweest. Denk aan vrouwen die lagere kredietlimieten krijgen aangeboden van hun bank op basis van een algoritme. Maar er kunnen ook nieuwere, minder voor de hand liggende vormen van discriminatie zijn door de groei van ai naar gebieden zoals onderwijs. Dit kan resulteren in bijvoorbeeld een gebrek aan bevordering van STEM-onderwijs voor vrouwen.
Ai-reis
Elke organisatie staat nog aan het begin van zijn ai-reis en zet eerste stappen om te begrijpen hoe ‘goedwerkende’ ai eruit moet zien. Het uitgangspunt moet communicatie en bewustwording zijn. Organisaties moeten ervoor zorgen dat werknemers – en vrouwen in het bijzonder – zich op hun gemak voelen om zich uit te spreken.
Het is daarom belangrijk om een ‘centraal punt’ te creëren waar problemen kunnen worden gemeld. Daarnaast is een cultuur waarin vrouwen het gevoel hebben dat ze gehoord worden cruciaal. Natuurlijk is het ook belangrijk om de problemen aan te pakken. Zo werden er onlangs bij Lenovo zorgen geuit over een vrouwelijke avatar. Dit leidde tot een belangrijke, bredere discussie over hoe vrouwen via ai vertegenwoordigd zouden moeten worden. Net als bij het testen van producten geldt ook hier: hoe breder en meer diverse de discussie over mogelijke gendervooroordelen, hoe beter.
Samenwerken
Samenwerking binnen zowel de tech-industrie als met externe organisaties is de sleutel tot het aanpakken van dit probleem op de lange termijn. Bedrijven moeten best practices delen en samenwerken met onderwijsorganisaties om trainingen aan te bieden over hoe om te gaan met vooroordelen op het gebied van ai.
Organisaties moeten een langetermijnvisie hanteren en samenwerken met technische scholen. Zo vergroten ze het bewustzijn omtrent gendervooroordelen bij diegenen die in de toekomst ai-systemen ontwikkelen. Natuurlijk blijft het ook van belang om meisjes en jonge vrouwen te enthousiasmeren voor de STEM-sector, om zo meer vrouwen op de werkvloer te krijgen en in de teams die ai-systemen ontwerpen. Volgens Gartner zijn vrouwen met slechts 26% vertegenwoordigd in de it en dat moet snel veranderen om onbevooroordeelde ai-systemen te kunnen leveren.
Perfectie
Ai-bias is geen eenvoudig probleem dat snel is op te lossen. Het is belangrijk om te streven naar vooruitgang in plaats van naar perfectie. Dit is geen kwestie die je op het bordje van een commissie legt. Iedereen binnen de organisatie moet betrokken zijn en de vooroordelen over ai moeten bij de start van elk ai-project worden besproken. Van cruciaal belang is ook dat organisaties ervoor waken dat vrouwen op alle niveaus een stem hebben en gehoord worden. Alleen wanneer het vanuit alle perspectieven zal worden bekeken, is dit probleem op de lange termijn aan te pakken. Door nu concrete vooruitgang te boeken, kunnen bedrijven de weg vrijmaken voor een rechtvaardigere en meer diverse ai gedreven toekomst.
Marine Rabeyrin is EMEA education segment director bij Lenovo
Ada Lopez is senior manager, product diversity officer bij Lenovo
mooi initiatief.
Ik zou nog verder willen gaan. “You better buckle up, I’ll pour another cup”
De tijd is rijp voor een nieuwe kijk op een meer inclusive it.
Bits moeten hun identiteit zelf kunnen ontdekken en kiezen voor een non binaire expressie waar ze zelf volledig achter kunnen staan.
In de overgangs fase, stel ik voor de huidige status expliciet te duiden : dit zou kunnen door vanaf nu te spreken over tot 0 of 1 gemaakten, want hoe kun een bedrijfssector veranderen zonder de bouwstenen aan te pakken ?
Verder wordt de term bitje steeds meer als beledigend ervaren. Het is niet aan de ons om naar believen verkleinwoorden te gebruiken zonder rekening te houden met belevingswereld van hen die het betreft.
Het spreekt voor zich dat deze ontwikkeling een boel weerstand zal opleveren, maar het maatschappelijke veranderingen kosten nu eenmaal tijd.
“Alleen wanneer het vanuit alle perspectieven zal worden bekeken, is dit probleem op de lange termijn aan te pakken. Door nu concrete vooruitgang te boeken, kunnen bedrijven de weg vrijmaken voor een rechtvaardigere en meer diverse ai gedreven toekomst.”
Zes keer wordt gesproken over genderbias zonder ook maar één keer uitleg te geven over wat het is, als man moet ik dus weer raden waar het over gaat. Ook reactie van Dino helpt niet in een duiding want veel woorden maar niks zeggend blijft het probleem onbenoemd maar moeten we het blijkbaar wel aanpakken. Gehoord maar onbegrepen begrijp ik alleen dat vrouwen sterk ondervertegenwoordigd zijn in de techniek en dat moet snel veranderen, hoe blijft net als de genderbias echter onduidelijk.
Misschien is genderbias wel het eindeloos doorzaniken over problemen zonder ze te definieren, met eventuele oplossingen te komen of ze doelgericht aan te pakken. Bijkomend voordeel van het niet oplossen is hergebruik van het probleem.
Ik kan me er wel iets bij voorstellen.
#metoo 😉
Enthousiasmeren van meisjes en vrouwen in techniek gaat niet om een kenmerk tussen de benen maar tussen de oren. Hier geldt dat hetzelfde blijven doen maar andere uitkomsten verwachten om de waanzin van maakbaarheid gaat door anderen te zeggen wat ze moeten doen. Een gelijke representatie is ondanks de gelijke kansen nog altijd een keus, kansberekening op een wiskundige manier laat het CBS zien dat maar 6% van de meisjes en vrouwen voor een studie in de techniek kiest. Wat betreft de verwachting in rolpatronen van bevoordeelde AI-systemen is statistiek nog altijd een bitch.
Orwelliaanse uitspraken over vrouwen op alle niveaus een stem geven wringt met onze culturele achtergrond van democratie door representatie, het gelijk van de meerderheid. Van genderbias naar AI-bias is een kleine stap voor de mens maar een grote stap voor de mensheid omdat het binaire probleem tussen de sexen opeens nog wat andere diversiteitsfactoren voor mogelijke uitsluiting krijgt met identiteitsproblematiek van kleur, leeftijd, religie of eventueel de taal & geletterdheid van een opleiding.
Er valt filosofische wat te zeggen voor Heidegger want to be or not to be van perspectieven in het zijn en er zijn gaat om de factor tijd want doelgericht en doeltreffend is ook een leuke, net als doelmatig als het om een focus op de uitkomsten gaat.