Hans van Ditmarsch is benoemd tot hoogleraar Artificiële Intelligentie bij de faculteit Bètawetenschappen van de Open Universiteit (OU). Hij baseert zich op de denkbeelden van Virginia Dignum: ai moet transparant zijn. Opdat de logaritmes zijn te controleren op bijvoorbeeld vooringenomenheid. Een gesprek.
Van Ditmarsch (1959) werkte van 1989 tot 1994 bij de Open Universiteit (OU) als cursusteamleider waarna hij overstapte naar de Rijksuniversiteit Groningen. Vanuit Groningen waren er nog regelmatig contacten met de OU. Zo rondde hij daar in 1995 de propedeuse Bedrijfskunde af. Van 1996 tot 2000 werkte hij vanuit de Rijksuniversiteit Groningen samen met de OU in het project BOK (Brede Onderwijsinnovatie Kennistechnologie) en in 2009 schreef hij mee aan de OU-cursus Logica in Actie. In 2000 promoveerde hij aan de Rijksuniversiteit Groningen, waarna hij als universitair docent aan de slag ging in achtereenvolgens University of Otago (Nieuw-Zeeland) en University of Aberdeen (Schotland). Aan de Universidad de Sevilla (Spanje) was hij senior onderzoeker.
Sinds 2012 is hij senior onderzoeker bij Centre National de Recherche Scientifique (CNRS) in Frankrijk, zeg maar de Franse NWO, waar hij gestationeerd is in Nancy bij het onderzoeksinstituut Loria en daarmee ook verbonden aan de Université de Lorraine. Deze Franse betrekking stopt per 1 juni.
Responsible ai
Binnen de ai-groep van de OU, zo geeft Van Ditmarsch aan, is het Martijn van Otterlo die les gaat geven over de ethische aspecten van ai. ‘Het is de bedoeling dat in de Master AI van de OU een vak Responsible AI komt, gebaseerd op het boek met die titel door Virginia Dignum, die aan de Umeå Universiteit in Zweden en de TU Delft is verbonden. Ik ben overigens in contact met Virginia, omdat ik AI@Umeå Fellow ben’, meldt Van Ditmarsch.
Dignum heeft voor de Europese Commissie uiteen gezet waarom ‘responsible ai’ (verantwoord gebruik van ai) nodig is en hoe dat is te bereiken. In haar bijdrage valt te lezen wat de risico’s van ai zijn: vooroordeel en vooringenomenheid, discriminatie, devaluatie van menselijke vaardigheden, gebrek aan controle, verlies van zelfbeschikking, en het ontnemen van menselijke verantwoordelijkheid. Daar staan voordelen tegenover op het gebied van gezondheidszorg, tegengaan van klimaatverandering, communicatie, onderwijs en werk.
Verantwoord
Is ‘responsible ai’ wel mogelijk? ‘Verantwoordelijk gedrag is altijd mogelijk’, antwoordt Van Ditmarsch. ‘Dat leer je van je ouders, familie, vrienden en op school. En op de universiteit: in een vak als Responsible AI krijgt de student de hand aangereikt om verantwoord technologie toe te passen en op verantwoorde wijze technologie te ontwikkelen. Bij ‘responsible ai’ stel ik me ook nog wat anders voor dat er helemaal niet mee wordt bedoeld: studenten ai aanleren zorgvuldig reeds gepubliceerd werk te citeren, niet dubbele inzendingen te doen bij verschillende conferenties, medestudenten en andere onderzoekers tot steun te zijn, ook als zij concurreren, enzovoorts. Het is helemaal niet vanzelfsprekend hoe je je in een academisch milieu ‘moet’ gedragen en om op den duur gezien te worden als iemand die aan de gemeenschap bijdraagt.’
De vraag was of je snelle computers nodig hebt of gewoon ‘kantoor-pc’s’ om verantwoorde algoritmes te ontwikkelen. Van Ditmarsch antwoordt: ‘Ik denk niet dat snelle computers per se nodig zijn voor responsible ai. Maar dit hangt van de toepassing af. Ik herinner mij een discussie dat gezichtsherkenning verboden is tenzij het criminelen of terroristen betreft. Makkelijker gezegd dan gedaan. Gezichtsherkenning voor beperkte doelgroepen vergt geen supercomputer maar zo’n extra ethische laag lijkt me een datawetenschappelijk probleem. Misschien zijn daar wel snelle computers voor nodig. Als het daarentegen gaat om het aanpassen van algoritmes, waarin de gebruiker extra beslissingsmomenten worden voorgelegd, dan kan dit op elke pc.’
Over niet zozeer gezichtsherkenning, maar zogenaamde eye tracking (en het gebruik daarvan voor cognitieve vraagstukken) heeft de ai-groep bij de OU nog een nieuwe medewerker: Frouke Hermens. Zij gaat ook aan de nieuwe Master AI bijdragen.
Gezichtsherkenning
Over gezichtsherkenning heeft de kersverse hoogleraar een persoonlijke ervaring te vertellen. ‘Dat in China veel wordt geïnvesteerd in ai, was me al langer duidelijk. Ik kwam daar vaak.’ De laatste keer dat hij in Guangzhou was, aan de Sun-Yat Sen-universiteit – te gast bij Minghui Ma en ook bij Yongmei Liu – was voor toegang tot de universiteitscampus ofwel een gescande studenten- of medewerkerspas, ofwel gezichtsherkenning, voldoende om de toegangspoortjes te doen openen.
‘Ik gebruikte de pas van mijn student Jinsheng (die op dat moment in Amsterdam was). Ik zat niet in hun visueel bestand. Gezichtsherkenning werkte dus niet voor mij, maar ik had wel die pas, en kwam dus binnen. Wat ik niet weet is of de gezichtsherkenning kon constateren dat ik duidelijk niet de eigenaar van de pas was, maar daar werd nooit een wenkbrauw over gefronst door het beveiligingspersoneel bij de campusingang.’
Communicatieprotocollen
Welke toepassingen ziet Van Ditmarsch liefst ontwikkeld met ai? ‘Communicatieprotocollen. Ik heb zelf veel recent werk verricht over zogenaamde gossip-protocollen, en dan vooral over uitbreidingen van dat soort protocollen met gebruikersinformatie (anders dan uitbreidingen met netwerkinformatie, wat gebruikelijk is in dit domein – TM.). Dit gaat over informatieverspreiding in netwerken. Een probleem bij mogelijke toepasbaarheid is complexiteit van berekeningen. Niet van de soort die je met een supercomputer kunt opheffen, maar alleen door slimmere algoritmes.’
Een gossip-protocol is een procedure of proces van peer-to-peer-communicatie tussen computers gebaseerd op de manier waarop epidemieën zich verspreiden. Sommige gedistribueerde systemen gebruiken zo’n protocol om ervoor te zorgen dat gegevens worden verspreid onder alle leden van een groep.
Veel belangstelling
Er is volgens Van Ditmarsch veel belangstelling onder studenten voor ai. ‘Ik was in 2018 te gast bij het Indian Institute of Technology Mandi in India. Ligt in de Himalaya, heel geïsoleerd, en je kon er fantastisch wandelen. Heel gemotiveerde studenten, ik was gevraagd te jureren bij de, zeg maar, derdejaars-projecten, en dat ging van elektronische skateboards tot automatische medicijnkastjes en iedereen wil iets met ‘deep learning’ doen – waarvan ik niets weet. Ook niets van opgevoerde skateboards trouwens. Het was een genoegen en een privilege. Hoeveel belangstelling er zal zijn bij de OU moet nog blijken. Ik begin in elk geval op 1 juni.’