Bedrijven zetten nieuwe technologieën zoals artificiële intelligentie (ai) in om efficiënt om te gaan met de grote hoeveelheid beschikbare data. Deze slimme manier van data-analyse biedt bedrijven voordelen, maar is tegelijkertijd vatbaar voor vooroordelen en is onethisch toe te passen.
We simplificeren ai en bestempelen alle vormen van machine-ondersteund denken als een vorm van ai. Dit klopt niet. Ai of machine learning (ml) beschrijft enkel een algoritmische benadering van data-analyse: er wordt een algoritme gebruikt om te kijken naar data en ai helpt daarbij om dingen te ontdekken die we anders niet zo snel zien.
Ai is dus een algoritme dat bestaat uit een specifieke datasamenstelling die de ‘denkwijze’ van het algoritme vormt. Dit is belangrijk, omdat het algoritme ‘leert’ op basis van de data die je het geeft. De manier waarop het algoritme vervolgens nieuwe data analyseert en conclusies trekt uit nieuwe datasets, hangt dus af van de data waarop het algoritme gebaseerd is en hoe het algoritme geschreven is.
Om te voorkomen dat ai – dat algoritme – zelf bevooroordeeld raakt, is het belangrijk om te kijken naar de data die je het algoritme geeft om te ‘leren’. Hoe vergaar je de juiste data? Waar komt de data vandaan? Is de dataset breed genoeg om niet suggestief te zijn richting een bepaalde conclusie? Hoe meer informatie, hoe beter, maar er moet altijd gewaakt worden voor eventuele vooroordelen in datasets.
Uitdaging
De uitdaging binnen bedrijven ligt bij het samenstellen van een team dat niet alleen op een inclusieve en eerlijke manier kijkt naar het algoritme zelf, maar ook naar de data, conclusies en resultaten die bij een data-analyse horen. Om dit te realiseren moeten bedrijven investeren in zaken zoals een ai-risico-framework om goed te kunnen evalueren, en een ethiekprogramma om medewerkers actief te betrekken bij het oplossen van ethische kwesties rondom ai.
Het hebben van een soort Data Governance Board die de uitkomsten onderzoekt, het proces bewaakt en zorgt voor balans, is belangrijk voor bedrijven. Bovendien heb je altijd de menselijke blik nodig bij veel ethische zaken. Denk maar aan kwesties rondom privacy. Een goed ethisch ai-proces heeft dus een aantal controlepunten nodig.
De eerste drie stappen
Naast bewustwording rondom ethiek van ai, zijn er ook concrete acties nodig. Met deze drie stappen kun je direct aan de slag:
- Definieer ethiek
Allereerst is het belangrijk dat organisaties een eigen definitie van ethiek vaststellen. Die definitie moet aansluiten bij de bestaande waarden van het bedrijf. Daarnaast is het belangrijk om een framework op te zetten waarmee gemeten kan worden of je als bedrijf vastgestelde doelstellingen rondom ethische verantwoordelijkheid van ai ook daadwerkelijk behaalt. Zoals met alle vormen van analytics is het noodzakelijk om daarbij kpi’s op te stellen. Hoe meet je het succes of falen van de ethische inzet van ai?
Zorg daarnaast dat je transparant bent richting je stakeholders over de ethische verantwoordelijkheid van je organisatie: wat is je visie en hoe borg je ethiek?
- Vind datasets zonder vooroordeel
Het grootste obstakel bij het implementeren van ethisch verantwoorde ai is het vinden van onbevooroordeelde data om je ai ‘te voeden’. Om dat te realiseren zijn goede datamanagement en data-governance vereist. Je moet data kunnen traceren naar de herkomst. Hoe vers zijn de data? Is het profiel van de data geschikt om als input voor ai te gebruiken?
Ook de manier waarop je het algoritme van de ai schrijft moet daarbij in acht genomen worden. Bedrijven moeten letten op de volgende factoren bij het creëren van een dataset:
- De bron, variatie, volledigheid en geschiktheid van de dataset die de modellen voedt, moet worden vastgesteld. Bij voorkeur bevat de dataset een uitgebreide dwarsdoorsnede van de data over het onderwerp dat wordt bestudeerd. Als dat niet het geval is, dan is het misschien mogelijk om synthetische gegevens toe te voegen om de dataset evenwichtiger te maken. Meer data zijn meestal beter;
- Het is belangrijk dat het team dat het ai-model bouwt divers en inclusief is, zodat geen enkel perspectief de resultaten ongewild toch kan vertekenen;
- Er moet een beoordelingsproces zijn om de uitkomst van de modellen te evalueren om te zorgen dat de resultaten onbevooroordeeld zijn en de voorgestelde acties ethisch verantwoord. Het is wenselijk dat de uitkomst van het model in lijn is met de waarden en doelen van het bedrijf.
- Zorg voor een ethisch verantwoorde relatie tussen ai en je klant
Als een potentiële klant iets koopt of zelfs maar een pagina online bekijk, willen bedrijven er voor zorgen dat de interesse het liefst omgezet wordt in bijvoorbeeld een aankoop. Maar als je onhandig te werk gaat, biedt je wellicht verkeerde dingen aan en wordt een potentiële klant overspoeld met irrelevante verkoopaanbiedingen. Dat is zeker niet klantvriendelijk en wordt misschien niet beschouwd als ethisch gebruik van informatie.
In de basis is het als bedrijf belangrijk om te overwegen in hoeverre het ethisch verantwoord is om bepaalde data te gebruiken, ook al is het doel om de klantervaring te verbeteren. Daarbij is het belangrijk om te weten wat de klant wil en dat de klant begrijpt waarom je als bedrijf bepaalde keuzes maakt.
Anders gezegd: om ethisch verantwoord om te gaan met ai moeten we het gesprek met onszelf en elkaar aan blijven gaan over wat wensen en toleranties zijn op dat gebied.
(Auteur Coen Bos is vicepresident Noord-Europa bij Snowflake.)
De toepassing van AI in met name het sociale domein vraagt inderdaad om ethiek hoewel ik uit de reacties begrijp dat filosofie hier als parels voor de zwijnen is. Infrastructuur als code is goed, cloud als governance is fout want ethiek definiëren lijkt me nogal onzinnig als de maatschappelijk geaccepteerde definitie om deze binaire afweging gaat. Wie iets meer leest dan een handleiding begrijpt direct het morele dilemma van ‘Four legs good, two legs better’ als je als organisatie de definitie van de ethiek zelf in gaat vullen. De glijdende morele schaal van een beoordelingsproces waarbij de slager zijn eigen vlees keurt leidde tot de ‘broedkamer’ van bestuurlijke insinuaties want het principe van privacy gaat om een data minimalisatie. En ik snap dat je een nieuwsgierige bezoeker met AI wilt converteren in een klant want het kijken maar niet kopen zijn bogus mips die niks opleveren maar hierin zijn wel regels. De beoordeling van fout of goed gaat meer om de compliance dan de ehtiek, de rechtmatigheid van bepaalde gegevensverwerkingen is namelijk nog weleens twijfelachtig als we kijken naar het optimisme van het team dat een ai-model bouwt. Het gesprek gaat dan niet meer om toleranties en wensen maar een sommering om direct te stoppen met als dwangmiddel een boete.
Binaire afwegingen gelden wat mij betreft zeker wat everything-as-code betreft, altijd goed ja.
Vind jij trouwens ook, oudlid.
Ook bij AI ben je ook niet alleen maar geinteresseerd in het resultaat, maar ook hoe dat resultaat tot stand gekomen is.
Filosofie die je niet kunt toepassen in daadwerkelijke scenarios, blijven inderdaad parels in een shell.
Want de echte wereld is een zwijnestal.
Bijv het morele dilemma van de verkoper die zegt dattie eerlijk is, over slager die zn eigen vlees keurt gesproken.
Altijd leuk om te zien dat Dino weer eens voorbij zijn eigen schaalparameters gaat om de context te veranderen, de iets minder binaire afweging van: ‘goed tenzij je niet naast je schoenen gaat rennen’ betreft namelijk een afbakening. Want de opmerking over de slager die zijn eigen vlees keurt kan vervangen worden door: ‘Quis custodiet ipsos custodes?’ Zelf oordelen over goed of slecht of hier over laten beoordelen is de essentie van het ethische vraagstuk. Zo vind ik dat ik goed kan koken, mijn kinderen vinden dat niet.