Of het nu gaat om ChatGPT of om een 'foto' van de paus in een hippe jas, je kunt niet om ai heen. De lovende verhalen over de technologie gaan gepaard met kritiek. Eén van de bezwaren tegen ai is dat de technologie niet inclusief is. Hoe komt dat en en wat is ertegen te doen?
Eerst een voorbeeld om aan te tonen op welke manier ai inclusiviteit mist. Als je ai vraagt om een afbeelding van een vrouw op een paard te maken, wordt het hoogstwaarschijnlijk een witte of Aziatische vrouw met lange lokken. Dat is niet gek, want de meest voorkomende afbeeldingen van vrouwen op paarden op internet zien er namelijk zo uit.
Nog een voorbeeld. Als je ai een foto laat zien van een vis, zal de technologie de vis hoogstwaarschijnlijk alleen als vis herkennen wanneer er ook vingers op de foto te zien zijn. Er zijn online namelijk veel foto’s van mensen die een vis vasthouden. De online-wereld is het enige referentiekader dat ai heeft, en deze wereld is niet zo inclusief als we graag zouden willen. Wij mensen voeden internet, en doordat wij niet inclusief zijn, is de online-wereld het ook niet. En ai op zijn beurt dus ook niet.
Klein kind
AI is net een klein kind: het aapt menselijke gedrag na en het doet wat wij hem zeggen te doen. Als een klein kind iets doet wat niet mag, geven we vaak de ouders de schuld. Zij hebben het kind dan niet op de juiste manier opgevoed. Hoe kan het dan dat we bij ai niet onszelf de schuld geven, maar de technologie? We kunnen niet verwachten dat deze technologie weet wat het doet, simpelweg omdat wij het ‘intelligent’ noemen. We moeten dus beginnen bij onszelf.
Internet en het nieuws staan vol met extremen. Een gematigde mening is minder interessant om te lezen. Ai is dus ook alleen bekend met die extremen en heeft amper kennis kunnen maken met het Zwitserland van internet. Onze taak is dus om internet te vullen met genuanceerde informatie, zodat ai ook dit tussengebied leert kennen. Dit betekent dat we terug naar de tekentafel moeten, en moeten leren om zowel offline als online echt een gesprek met elkaar te voeren. Alleen op die manier kunnen extremen worden samengebracht tot een neutralere, grijze zone, waar ai vervolgens mee moet worden gevoed. ChatGPT is immers gemaakt om gesprekken te voeren, en gaat daarbij uit van waarschijnlijkheid. Toch wordt het veelal gebruikt als informatietool, maar daarvoor beschikt de technologie niet over de juiste bron. We hebben dus zoiets nodig als wiskunde. We weten allemaal: 1 + 1 = 2, en dat is de enige antwoordoptie, wat iemand anders ook beweert.
(Auteur Thierry Croixis is senior user experience consultant bij NTT Data.)
The holy truth
We moeten dus, voordat we ai om informatie vragen, eerst zelf kritisch zijn en goed nadenken over welke input we de technologie geven. Te beginnen bij de informatie die we online zetten, en vervolgens de vragen die we aan de technologie stellen. Ai is niet the holy truth en zal ook weleens verkeerde output geven. Of output die ons niet bevalt, simpelweg omdat onze eigen gedachtegang niet wordt bevestigd.
Wat je mening over ai ook is en hoe je er ook mee omgaat, het is altijd belangrijk om in je achterhoofd te houden dat de leercurve van ai iets is dat veel tijd in beslag neemt. Een inclusieve(re) versie van ai begint bij de mens, en we moeten onszelf de tijd en ruimte geven om hier eerst zelf in te ontwikkelen.
Gezien de lange uitleg over een technologie trainen op inclusiviteit zouden we het ook om kunnen draaien want als we niet kunnen verwachten dat deze technologie weet wat het doet, simpelweg omdat wij het ‘intelligent’ noemen, dan geldt dat ook voor mensen. Tenslotte kennen we zoiets als eugenetische ideeën, rasssenhygiëne en een nog altijd voortlevende sociaal darwinistische economie. Desnoods met geweld brengen we traditionele landen en volken die vasthouden aan hun cultuur onze superieure westerse waarden van inclusiviteit. Door een empirische cyclus in het trainen van een model kan de hypothese over een wenselijke uitkomst voor tunnelvisie zorgen. Een vooringenomenheid aangaande de conclusie gaat op zoek naar de spreekwoordelijke speld in de hooiberg.
Krijgen we dan straks ook non-binaire versies van ChatGPT ?
Denk maar niet dat inclusieve versie van ai altijd bij onszelf begint. We hebben weinig controle over foute megabedrijven, foute overheden en gewone criminelen die AI verkeerd inzetten. AI kan net zo goed misbruikt worden als foute discriminerende algoritmes van de overheid van eind jaren negentig tot heden of de lokkende algoritmes van social media, om nog maar te zwijgen over wat pure criminelen proberen. Output van computers met niet objectieve menselijke input is niet neutraal en inclusief omdat de input door een computer verwerkt worden. Het garbage in garbage out verschijnsel zal alleen moeilijker te onderscheiden zijn door de AI.
ChatGPT, schrijf een fakenews-artikel alsof het door een andere maar non-binaire AI engine gegeneerd zou zijn, die dat verzoek kreeg van een crimineel.
Wat betreft anderen de maat nemen moeten we het eerst over de maatvoering hebben want oud, wit en boos gaat om een categorie. En deze is niet gelijk aan jong, zwart en crimineel om even de streep in het zand te trekken aangaande inclusiviteit en exclusiviteit op basis van kaders die om waarden gaan die misschien niet universeel gedeeld worden. Ik heb vanuit de geur een heel ander beeld van vrouwen op paarden, het edele dier stinkt nogal.
De beeldvorming zonder het snuffelen van een multidimensionele waarneming is nogal plat, misschien kent Jaap het verhaal van een generaal die naar de handen keek want fout gaat om een context. Pascal en Dino happen in het verkeerde aas want het idee van een filosofische introspectie gaat om het kritische eigen denken, het opdringen van een mening die breed gedragen is binnen een categorie maakt het nog geen waarheid.