Er zijn al legio doemscenario's geschetst rondom kunstmatige intelligentie (artificial intelligence – ai). Miljoenen banen gaan verloren, gezichtsherkenning wordt ingezet voor zaken die we nooit hebben zien aankomen en ai en robots nemen onze levens over. Deze scenario’s zorgen voor angst voor de technologie en zouden bij consumenten, werknemers en software-bedrijven de vraag moeten oproepen: wat kunnen we doen om dit tij te keren? Hoe kunnen we het ai van de toekomst een positief imago geven?
De realiteit is dat vrijwel niemand (althans dat hoop ik) expres ai-systemen ontwerpt die met opzet vooroordelen versterkt of andere features creëert die het tot een enge technologie maken waar iedereen zich van afkeert. Maar op een bepaald punt kunnen we ons niet allemaal blijven verschuilen achter goede bedoelingen. Het feit dat mensen niet zorgvuldig genoeg zijn en acties ondernemen om te zorgen dat ai op een goede en ethische manier werkt, is problematisch. Met andere woorden, vandaag de dag zijn een lakse houding ten opzichte van ai en de impact die beslissingen hebben op echte mensen, een groter probleem dan opzettelijke kwaadaardigheid.
Het is aan ons allemaal (of we nu managers, medewerkers of zelfs consumenten zijn) om onze processen te veranderen of, in het geval van consumenten, verandering te eisen, op twee gebieden:
-
Mensen betrekken en betrokken houden die niet alleen bevoegd zijn, maar ook worden aangemoedigd om hun mond open te doen als ai-systemen lijken te ontsporen of wellicht al zijn ontspoord.
-
Realiseren dat verantwoordelijkheid in ai niet goedkoop is. Het kost veel meer moeite om ergens aandacht aan te besteden dan om geen verantwoordelijkheid te nemen voor de resultaten en te zeggen ‘Hey, het is ai. Ja, ik heb het gebouwd, maar het heeft een eigen mening, dus het is niet mijn schuld.’
Verschil
Als het aankomt op ai-technologie, dan hebben software-leveranciers ook een verantwoordelijkheid. En wel op deze drie gebieden:
-
Ai-technologieën moeten het kostbaar maken om vooroordelen of andere problemen in ai-systemen te missen of negeren. De ontwikkeling van AutoML, om nog maar te zwijgen van verdere ontwikkelingen op het gebied van automatisering, zorgt ervoor dat mensen in sommige opzichten iets te veel op de automatische piloot denken en handelen. Denk aan de groei van automatisering in de financiële markt die zorgt voor volatiliteit op de aandelenmarkt. Als je werkt aan automatisering, zijn duidelijke controles in het proces (op vooroordelen, interpreteerbaarheid, et cetera) van cruciaal belang.
-
Het moet duidelijk zijn waar de verantwoordelijkheid van mensen start en ophoudt. Software-systemen moeten dit faciliteren. Dat wil zeggen dat echte mensen aan het einde van de productielijn staan als het gaat om verantwoordelijkheid in ai-systemen. Niet alleen teams of groepen, maar individuen die moeten antwoorden op beschuldigingen nadat de dingen fout zijn gegaan.
-
We moeten het makkelijker maken om kennis (en dus ervaring, standpunten en ideeën) te combineren. Dit betekent dat er niet slechts één persoon is die iets bouwt met ai en het introduceert, er zijn veel mensen bij betrokken. Dit betekent dat er voldoende gelegenheid is om te signaleren dat iets fout gaat (vooral als punt één goed wordt ingevuld).
Ik geloof dat al deze verantwoordelijkheden en nieuwe productfuncties zullen leiden tot een nieuwe discipline. Deze zal vervolgens de weg vrijmaken voor ai die geen angst inboezemt: ethische kunstmatige intelligentie.
Dat is allemaal rijkelijk vaag, mijnheer Visser. Kom eens met concrete voorbeelden bijvoorbeeld.
De angst voor de discriminerende algoritmen zit diep, een angst die niet onterecht is en er zijn wetsvoorstellen in de maak om een vooringenomenheid van machine learning systemen te voorkomen. Te denken valt aan systemen die op basis van gezichtsherkenning conclusies trekken die nogal ongerijmd zijn. Het risico op Kafkaëske toestanden met AI is dan ook niet ondenkbaar, de sketch van Little Britain met ‘Computer Says NO’ is namelijk veelzeggend:
https://www.youtube.com/watch?v=AJQ3TM-p2QI
Of Hylke Visser met zijn opinie het imago van AI weet te verbeteren is twijfelachtig, hij is namelijk niet heel erg duidelijk over zijn maatregelen. Zo stelt hij in punt 1 dat we het kostbaar moeten maken om vooroordelen of andere problemen in ai-systemen te missen of te negeren. Semantisch klinkt dat als een boetestelsel waarvoor wel even wat wetsvoorstellen aangenomen moeten worden. En in punt 2 stelt Hylke dat het duidelijk moet zijn waar de verantwoordelijkheid van mensen start en ophoudt. Had ik al wat gezegd over de boetedoening in punt 1?
Hylke gaat helemaal van het pad af met punt 3 waarin hij verwijst naar een goede invulling van punt 1 als voorwaarde voor punt 3 waarmee hij een catch-22 creeërt. Want de invulling van een wettelijke kader waaraan de standpunten getoetst kunnen worden mist nog omdat technologie zich sneller ontwikkeld dat wetgeving. Ik concludeer daarom dat angst over AI terecht is door een zekere mate van wetteloosheid in het ‘wilde westen’ van algoritmen.
Dank voor jullie reacties. Ik beweer niet dat de genoemde punten zorgen voor een waterdicht en veilig systeem. Zeker nu wetgeving nog ontbreekt, zie ik echter voor leveranciers wel een rol weggelegd om de negatieve effecten die AI mogelijk met zich meebrengt zoveel mogelijk te beperken. Dit zit niet alleen in de technologie, maar met name in de processen en de mensen die met AI-technologie werken. Dit is misschien niet voldoende om de angst bij de consument helemaal weg te nemen, maar het kan op den duur, al dan niet in combinatie met wetgeving, zorgen voor meer vertrouwen.
Hylke,
Ik wees op de catch-22 van wetgeving, bij mijn weten wordt deze in democratische landen door kiezers bepaalt en ik stelde in mijn reactie dat jouw bijdrage weinig verbetering van het imago van AI oplevert. Als Director Sales & Business Development bedank je de beul voor zijn werk want beide reactie zijn niet echt positief. Ik als lezer wil weten hoe spelers zoals Dataiku de angst voor AI wegnemen zonder de dwang van wetgeving achteraf.