Nu we er zonder verder bij na te denken meer en meer vertrouwen op machinaal gestuurde beslissingen – wie kan er immers nog zonder Google Maps? – ontstaan er ook in toenemende mate vragen omtrent de ethiek van deze kunstmatige intelligentie (ai). Sommigen vrezen dat het ‘hart’ – de ziel – van het bedrijfsleven eronder lijdt, daarom worden er steeds vaker richtlijnen opgesteld om op een ethische manier om te gaan met ai.
Zowel de overheid als burgers hebben echter ook zo hun eigen ideeën over hoe ai en de mens het beste samengaan. Zo zijn de ‘Asilomar AI Principles’ opgesteld door het Future of Life Institute, gesteund door onder andere Elon Musk, Facebook- en Google-directeuren en wijlen Stephen Hawking.
Naarmate de hoeveelheid en verscheidenheid aan data blijft groeien, zal ai alleen maar meer een centrale rol gaan spelen bij het filteren van wat werkelijk onze aandacht verdient, zowel in ons persoonlijke leven als op het werk. Hierbij moeten we wel eerst een aantal vragen over de ethiek van ai beantwoorden.
Vertrouwen op aanbevelingen
Traditionele computers houden de enorme hoeveelheid data die bedrijven verzamelen niet bij. Daarom maken we steeds meer gebruik van ai voor advies bij de betekenis van datasets, zowel in gestructureerde als ongestructureerde vorm. Dankzij machines kunnen taken worden geautomatiseerd waardoor werknemers zich meer kunnen richten op het creatieve aspect van hun vak. En het mooie van machinaal leren is dat het naarmate het meer wordt gebruikt steeds intelligenter wordt. De algoritmische voorspellingen worden in de loop der tijd steeds nauwkeuriger.
De vraag of deze voorspellingen al dan niet te vertrouwen zijn, geldt hier net zozeer als in het geval bij de aanbevelingen van een andere adviseur – zij het een machine, zij het van vlees en bloed. Er zal altijd een menselijk element achter ai-gedreven besluitvorming moeten zitten. Dat betekent voor de dagelijkse praktijk dat bedrijven moeten overwegen om een hr- of ethiekspecialist te laten samenwerken met datawetenschappers. Zo kunnen ai-aanbevelingen langs de culturele waardenlat van een onderneming worden gelegd. Dit gaat hand in hand met het achtste Asilomar ai-principe: ‘Elke betrokkenheid van een autonoom systeem bij de juridische besluitvorming moet een correcte verklaring bieden die door een bevoegde menselijke autoriteit kan worden gecontroleerd’.
Menselijke waarden integreren
Mensen moeten dus de waarden van een bedrijf waarborgen – zoveel is duidelijk. Maar wanneer machines verantwoordelijk zijn voor het nemen van beslissingen is de vraag: hoe laten we deze beslissingen zo goed mogelijk aansluiten bij de set waarden en principes die we zelf zouden toepassen?
In veel opzichten is ai al begonnen met het verbeteren van de mensheid in het algemeen. Zo dragen ai-gedreven oplossingen zoals asset performance optimization bij aan de vermindering van treinongelukken en houdt het vliegtuigen minder lang aan de grond, dankzij preventief onderhoud. Hierdoor wordt het personeel op tijd geattendeerd op benodigd onderhoud, en wordt zowel tijd als geld bespaard.
Door de doelstellingen voor machine-beslissingen van begin af aan af te stemmen op je normen en waarden, kun je ai-praktijken laten aansluiten op menselijke waarden. Idealiter moet elk bedrijf een set ai-principes opstellen om zo, telkens wanneer er een nieuwe ai-oplossing wordt geïmplementeerd, deze hierop af te stemmen. Uiteindelijk wordt zo ook steeds minder menselijk handelen vereist.
Vooroordelen voorkomen?
Data die door ai wordt gegenereerd zal niet altijd volledig vrij zijn van enige subjectiviteit, deze gevaarlijke misvatting heeft menig bedrijf al in de problemen gebracht. Wanneer er met een bestaande set data wordt gewerkt, bestaat de kans dat deze data gekleurd is. Wanneer hier niet alert op wordt gehandeld, worden eerder gemaakte aannames en vooroordelen meegenomen in het algoritme – met alle risico’s van dien.
De gekleurdheid van data is dus een reële zorg die proactief moet worden aangepakt door ai-organisaties en bedrijven. Want hoewel algoritmes van nature objectief zijn kunnen door gekleurde datasets de vooroordelen zelfs worden versterkt. Zo ontdekten onderzoekers enkele jaren geleden dat het veelgebruikte door Google ontwikkelde algoritme word2vec stereotypes in teksten vergrootte, omdat het algoritme homemaker, nurse, receptionist enzovoort als typisch vrouwelijke beroepen beschouwde en captain, architect, boss enzovoort als typisch mannelijke beroepen.
Algoritmische beslissingen
Dit lijkt misschien niet relevant, maar dat is het zeker wel. Als een klant of zakenpartner zich gediscrimineerd voelt, bijvoorbeeld op basis van lokale wetgeving of gemeenschappelijke richtlijnen van de Europese Commissie, heeft hij of zij uiteraard het recht om die beslissing in de rechtbank te toetsen.
Als het besluit in kwestie is genomen door middel van een algoritme, via mogelijk bevooroordeelde gegevens uit verschillende bronnen, zoals hierboven beschreven, dan blijft het bedrijf dat de diensten aanbiedt (bijvoorbeeld een bank of een verzekering) verantwoordelijk voor de volledige omvang van de wet. Transparantie is hier van essentieel belang: welk platform werd gebruikt en hoe toegankelijk is het platform? Deze juridische en ethische verantwoordelijkheid mag niet zomaar worden genomen.
Robuust systeem
Het is dus essentieel om een goede dataset te hebben. Een datasteekproefset moet groot genoeg zijn om betrouwbare bevindingen op te leveren en subjectiviteit te minimaliseren. Dit vraagt om een robuust systeem dat de meest rijke en complexe informatie kan verzamelen en verwerken, van zowel gestructureerde als ongestructureerde data en tekst, om de beste conclusies te trekken. Daarbij moet er bij het verzamelen van de data toezicht zijn van teams met een verschillende kijk op achtergronden en andere onderscheidende factoren. Het is nog beter om personeel van verschillende afdelingen, niveaus en teams erbij te betrekken, wat ook weer de intellectuele diversiteit bevordert.
Natuurlijk kan zelfs een dergelijke preventieve aanpak geen garantie bieden tegen vooroordelen. Resultaten moeten daarom ook altijd achteraf worden onderzocht op zulke signalen. Alle opvallende verbanden tussen ras, seksualiteit, leeftijd, geslacht, religie en soortgelijke factoren moeten worden bekeken. Wanneer er een vooroordeel wordt gespot, kunnen aanpassingen in de set worden toegepast. Net als bij het verzamelen van data moeten ook deze aanpassingen weer vanuit verschillende invalshoeken correct worden doorgelicht.
Met zoveel potentiële toepassingen voor ai is het onmogelijk om waterdichte antwoorden te geven op bovenstaande vragen. Maar elke positieve verandering die kan worden bereikt door gebruikers aan te sporen om na te denken over wat deze vragen voor hen betekenen in dit computertijdperk, is welkom. Wanneer wordt begonnen met een duidelijk doel dat aansluit bij de organisatiewaarden en dat regelmatig wordt gemonitord, ben je goed op weg in het optimaal benutten van ai.
Cyrill Tiwon, directeur presales Benelux & Nordics bij OpenText
“De gekleurdheid van data is een reële zorg”
Bovenstaande zin lijkt mij semantisch gelijk aan de zorg over de kwaliteit van de data, de willekeur van taal is namelijk een Turing-proef aangaande kunstmatige intelligentie. Computers zijn goed in het oplossen van een Sudoku puzzel maar struikelen vaak nog over een cryptogram. Machine learning en statistiek zijn goede vrienden maar de linguïstiek is toch nog echt een ander verhaal als het om AI gaat.
Discriminatoire algoritmen is ook zo’n leuke discussie, het statistische gelijk hiervan komt sommigen niet goed uit. Data wordt dan gekleurd vanuit misplaatste politieke motieven waardoor er gelogen wordt met cijfers. Eén van de veel gehoorde kritieken over het ‘Ministerie van Waarheid’ zoals Google en Facebook aangaande AI is het gebrek aan controle op achterliggende datasets, transparantie zit niet in het DNA van deze organisaties.
Algoritmische besluitvorming kent dan ook vele valkuilen en er zijn genoeg verkeerde voorspellingen te vinden omdat uitzonderingen de regels bepalen welke simpelweg gemist werden doordat er niet regelmatig gecontroleerd werd of iemand het algoritme gekraakt heeft. Onderhoud is namelijk de achilleshiel van AI.