Computable - Interview: Meike Nauta, AI met voorbedachten rade

Meike Nauta, winnares Prins Friso Ingenieursprijs

Ai met voorbedachten rade

Met trots draagt zij de eretitel Ingenieur van het jaar 2025. Meike Nauta won de Prins Friso Ingenieursprijs; de favoriet bij zowel de vakjury als het publiek. Haar werk als informaticus bij Datacation is erop gericht artificiële intelligentie (ai) op een effectieve en verantwoorde manier toe te passen. ‘We moeten af van de black-boxbenadering en toe naar ai met voorbedachten rade.’

Tekst: Teus Molenaar Beeld:  Datacation

De Prins Friso Ingenieursprijs wordt jaarlijks uitgereikt door het Koninklijk Instituut Van Ingenieurs aan een ingenieur die uitblinkt in expertise, innovatie, ondernemerschap, ambassadeurschap en maatschappelijke impact. Nauta ontving de prijs uit handen van prinses Mabel, sinds augustus 2014 de weduwe van prins Friso van Oranje-Nassau van Amsberg. Ook prinses Beatrix was aanwezig bij de uitreiking.

‘Daarna had ik het voorrecht om de prinsessen persoonlijk te vertellen over mijn werk rondom verantwoorde ai. Een inspirerende ontmoeting’, aldus de laureaat.

Het filmpje waarin zij zich nomineert voor deze prijs, laat zien wat zij doet: ‘Power to the people, with the power of ai’. De jury roemde vooral haar empathisch vermogen en maatschappelijke betrokkenheid.

Werk leuker en slimmer maken

‘Mijn rol bij Datacation is om bij bedrijven en maatschappelijke organisaties te kijken wat voor data zij hebben, hoe zij nu werken, en hoe ai hun werk leuker, makkelijker en slimmer kan maken. Dat doen we voor tal van branches; variërend van de logistiek, de bouw, de zorg, het onderwijs, noem maar op. De onderliggende technologie van alle ai-modellen blijft redelijk hetzelfde en dat maakt het makkelijker om allerlei verschillende toepassingen in te zetten.’

Aan de ene kant besteedt Datacation veel aandacht aan het mensenwerk en aan de andere kant aan de manier hoe bedrijven en organisaties ai kunnen gebruiken om hun werk te verrijken. ‘Tegelijk moet je zorgen voor draagvlak binnen de organisatie’, vertelt Nauta. ‘Je bespreekt hoe een proces misschien anders kan verlopen; hoe het ideale plaatje eruit zou kunnen zien. Als iedereen akkoord is, gaan we het ai-model ontwikkelen en implementeren, met daarin de eindgebruiker centraal.’

Data-schaamte

Extra aandachtspunt is de kwaliteit van de gegevens: geen goede ai zonder de juiste data. Veel bedrijven en organisaties die Nauta spreekt schamen zich voor hun data omdat zij die niet goed op orde hebben. Maar dat maakt niet uit, stelt zij hen dan gerust. ‘Ai kan hierbij helpen door bergen data te analyseren en aan te geven hoe het beter kan. Je gaat vervolgens niet direct alle gegevens schoonmaken, maar stukje voor stukje. Je begint met wat de ai-oplossing nodig heeft en breidt dat steeds verder uit.’

Zorgen over ai wegnemen

Datacation werkt onder meer in de logistiek en in de zorg, maar ook met bibliotheken. Zo ontwikkelt Nauta ai-modellen om op ct-scans alvleesklierkanker te onderscheiden van littekenweefsel voor het Universitair Medisch Centrum Utrecht, ai om schade aan wegen te detecteren op dronebeelden voor gemeenten en de ai-assistent Boekbot die boeken aanbeveelt aan jongeren om leesplezier te bevorderen. ‘Het is ontzettend breed.’

Zelf zit Nauta een jaar of acht in het vakgebied, om te zien dat organisaties tegenwoordig heel anders aankijken tegen ai. ‘Als ik vroeger op mijn verjaardagsfeestje vertelde dat ik iets doe met ai, dan keken mensen daarvan op. ‘Wat is dat dan?’, om vervolgens gauw weer ergens anders over praten. Maar nu staan ze in een cirkel om me heen. Iedereen is geïnteresseerd in wat het is en wat het kan. Zeg maar sinds ChatGPT ruim twee jaar geleden is uitgebracht.’

Volgens Nauta vinden de meeste bedrijven inmiddels dat ze er iets mee moeten doen. ‘Je kunt nu eenmaal niet achterblijven als jouw concurrenten wel efficiënter en slimmer gaan werken. Ja, dan gaan bij hen de prijzen omlaag. Bovendien kan het werk door ai leuker worden voor medewerkers. Er is al een krapte op de arbeidsmarkt, dan moet je wel iets doen om mensen aan je te binden.’ Alleen, benadrukt zij, een organisatie moet niet alleen zorgen voor voldoende technische kennis en vaardigheden, maar ook kunnen aanvoelen hoe de medewerkers erin staan. ‘Ik merk vaak dat binnen een organisatie mensen bang zijn dat ai hun baan gaat overnemen. Daarom is het voeren van goede gesprekken belangrijk om die zorgen bij hen weg te nemen en te kijken hoe ai hun werk leuker kan maken en hen echt ondersteunt.’

'Voor elke technologie geldt dat het ten goede, maar ook ten kwade is te gebruiken'

Meike Nauta, winnares Prins Friso Ingenieursprijs

Data moeten veilig zijn

Beveiligingsaspecten spelen bij het gebruik van ai ook een rol. ‘Wij willen dat onze data veilig zijn. Wij willen niet onze gegevens zomaar weggeven aan ChatGPT bijvoorbeeld. Gelukkig wonen we in de Europese Unie, waar de AI-Act is aangenomen en waardoor er een hele lijst van toepassingen is opgesteld waarbij het gewoon niet is toegestaan om ai in te zetten. Denk aan massasurveillance met op elke hoek van de straat een camera die social scoring toepast om na te gaan in hoeverre je een ‘brave burger’ bent, dat is gewoonweg niet toegestaan in de EU. Op die manier probeert men dat soort ethisch onverantwoorde toepassingen hier te voorkomen.’

Maar ja, het blijft lastig, vindt ook Nauta. ‘Voor elke technologie geldt dat het ten goede, maar ook ten kwade is te gebruiken. Je kunt geen wereldomvattend ai-model ontwikkelen, omdat er normen en waarden in zitten, en de normen en waarden voor iedereen anders zijn. De EU maakt weer andere afwegingen dan Azië of de Verenigde Staten.’

Risico’s inschatten

De toepassing van agentic ai, waarbij de software zelfstandig beslissingen neemt, gaat weer een stap verder. Nauta: ‘Agentic ai biedt fantastische mogelijkheden voor slimmere geautomatiseerde bedrijfsvoering. Maar dat iets technisch mogelijk is, betekent nog niet dat het ook moet. Je moet de risico’s inschatten. Mag een ai-agent bijvoorbeeld zelf een e-mail beantwoorden of alleen een concept opstellen? En bij welke risicovolle toepassingen dient de beslisbevoegdheid bij een mens te blijven liggen, als een soort van check?’ Dat soort vragen moeten gesteld en beantwoord worden. Bovendien, onderstreept zij, wil je ai die zichzelf uitlegt. ‘Neem geen genoegen met bijvoorbeeld het antwoord 42. De ai-agent moet uitleggen hoe hij tot 42 is gekomen. Of dat hij er eigenlijk niet zo zeker van is. Dan geef je de eindgebruiker veel meer informatie waarmee die een betere afweging kan maken. Mensen moeten leren hoe ze met verantwoorde ai moeten en kunnen omgaan.’

Onderwijs

Meike Nauta geeft ook les bij de Jheronimus Academy of Data Science in Den Bosch, een samenwerking van Tilburg Universiteit en Eindhoven Universiteit met een opleiding voor bachelor en master, specifiek over uitlegbare ai. Doel is om studenten te leren hoe ze op een verantwoorde manier ai kunnen inzetten. Er zijn genoeg technische ai-opleidingen die daar nog niet voldoende aandacht aan besteden of die niet laten zien wat er nog meer kan dan de standaard ai-oplossing.

Wie wil weten weke code Nauta gebruikt voor haar explainable ai-modellen, kijkt op: https://github.com/M-Nauta/PIPNet