We zijn op weg naar ‘everyday ai’, waarin iedereen de tools en training heeft om te werken met kunstmatige intelligentie. Dit zal leiden tot betere dagelijkse besluitvorming en nieuwe producten en diensten die in verschillende sectoren flinke veranderingen teweeg gaan brengen. Ook in de publieke sector gaat alledaagse ai een belangrijk rol spelen, bijvoorbeeld bij het waarborgen van onze nationale veiligheid.
Bij nationale veiligheidsvraagstukken denken we meestal aan de bescherming van fysieke veiligheid, intellectueel eigendom, cyberdreigingen of de veiligheid van de toeleveringsketen. Vraagstukken waarbij ai een meerwaarde kan leveren. Maar waar het gaat om ai, daar wachten fundamentele uitdagingen die, als ze niet worden aangepakt, ons ervan kunnen weerhouden om ai in te zetten voor onze veiligheid. Deze uitdagingen komen samen in de overkoepelende uitdaging: gereedheid. In hoeverre zijn we klaar voor de inzet van ai?
Confucius
Een bekende uitspraak van de Chinese filosoof Confucius luidt als volgt: ‘Succes is altijd afhankelijk van een nauwkeurige voorbereiding en zonder die voorbereiding is falen een feit.’ Om dit falen te voorkome, zijn er drie fundamentele zaken die betrekking hebben tot gereedheid.
De eerste factor zijn de mensen binnen een organisatie. Binnen de overheid bijvoorbeeld zijn er eenvoudigweg niet genoeg geschoolde data-science-experts en ontbreekt het aan een samenhangend, breed gedragen plan om de publieke beroepsbevolking bij te scholen.
De tweede factor is de betrouwbaarheid van ai-voorspellingen. Transparantie is hierbij veruit het belangrijkste onderwerp – transparantie van de gebruikte gegevens, de ontwikkelde voorspellingsmodellen en het voortdurend controleren van de modellen op veranderingen in nauwkeurigheid en vooringenomenheid.
De derde sleutelfactor die de gereedheid voor ai bepaalt, is snelheid. De ontwikkelingen gaan snel en de industrie, publieke sector en feitelijk het hele land moeten mee gaan in die vaart. Wat momenteel niet altijd lukt. Het aantal ai-octrooien dat wereldwijd wordt aangevraagd, groeit jaarlijks met driekwart, en vorig jaar heeft China drie keer zoveel octrooien aangevraagd als de VS. Extra mensen en geld erop zetten is onvoldoende. Er is een productiemodel op industriële schaal nodig voor ai, vergelijkbaar met wat Henry Ford deed voor auto’s. Een dergelijk model maakt automatisering, samenwerking en voortdurende verbetering mogelijk.
Hieronder gaan we wat dieper in op de drie genoemde factoren.
Bijscholing
Het personeelstekort is niet zomaar op te lossen door personeel te huren of door werk uit te besteden. Er wordt geschat dat de vraag naar ai-experts drie tot vijf keer groter is dan het aanbod. Dit maakt het voor publieke organisaties dan ook extra lastig om met bedrijven zoals Google en Facebook te concurreren in de werving van ai-medewerkers. Een goede oplossing voor dit probleem is het bijscholen van het bestaande personeel. Hierbij moeten we kijken naar potentieel. Door de Amerikaanse non-profit Mitre wordt bijvoorbeeld geschat dat twintig procent van het burgerpersoneel van het ministerie van Defensie in de VS is bij te scholen met ai-vaardigheden. Dit komt neer op ongeveer 157.000 krachten. Dit betekent echter niet dat we van elke Excel- en PowerPoint-gebruiker een codeur moeten maken. Low-code en no-code – waarmee software is te ontwikkelen met een klik van de muis, in plaats van het schrijven van softwarecode – moeten worden ingezet om meer domeinexperts te betrekken. Met dit soort tools is het mogelijk om een bedrijfskundige samen te laten werken met een gepromoveerde datawetenschapper aan hetzelfde project. Voor de industrialisering van ai zijn veel niet-codeurs nodig, waaronder domeinexperts, data-ingenieurs en ai -governance-beleidsmanagers, om er een paar te noemen.
We weten dat bijscholing werkt. De bijscholingsprogramma’s van bedrijven als Pfizer, GE, en Schlumberger zijn succesvol. Het bijscholen van honderdduizenden werknemers zal een vliegwieleffect teweegbrengen, zowel binnen de overheid als in het bedrijfsleven, aangezien bijgeschoolde werknemers naar andere sectoren zullen overstappen.
Betrouwbaarheid
Deze kwestie heeft meerdere lagen en is van groot belang voor vrijwel iedereen. Als het gaat om gereedheid, is het van cruciaal belang dat werknemers in de frontlinie vertrouwen hebben in ai-producten, anders worden deze producten simpelweg niet gebruikt. Zonder vertrouwen kunnen zelfs de beste ai-producten geen waarde genereren. Stel dat een ai-model voorspelt dat we voldoende reserveonderdelen hebben om de komende twaalf maanden missiekritieke vliegtuigen te onderhouden. Als matrozen of piloten de voorspelling niet vertrouwen, leggen we te grote voorraden aan en gaat dit ten koste van de efficiëntie. De Boston Consulting Group schat dat minder dan twintig procent van de Global 2000-bedrijven een significante roi uit ai hebben gegenereerd. Een primaire reden is een gebrek aan vertrouwen bij de eerstelijnswerkers. Wat kunnen we hieraan doen? Transparantie, traceerbaarheid en monitoring genereren vertrouwen.
Met transparantie doelen we op de gegevenskenmerken die een model gebruikt om voorspellingen te doen, en een toelichting bij elke afzonderlijke voorspelling wanneer dat nodig is. Als bijvoorbeeld een toepassing voor het verwerken van satellietbeelden schat dat een bepaalde fabriek slechts op twintig procent capaciteit draait, dan moet het model kunnen uitleggen hoe het tot die conclusie is gekomen.
Vervolgens zijn traceerbaarheid, controleerbaarheid en automatische kwaliteitscontroles nodig voor zowel datasets als modellen in elke fase van hun levenscyclus.
Tot slot moet het toezicht op zowel de kwaliteit als de vertekening van de gegevens en modellen een continu, automatisch proces zijn dat werkt met de snelheid van ai, niet met de snelheid van mensen. Wanneer dit een apart proces is dat eens per kwartaal wordt uitgevoerd, of een richtlijn in een hr-handleiding die nooit wordt gebruikt, dan komt het vertrouwen in gevaar.
Ai-vooringenomenheid kan vele vormen aannemen. Wat voor de ene toepassing belangrijk is, is dat misschien niet voor de andere. Betrouwbare ai moet dus zoeken naar vooringenomenheid in elke subgroep die materiedeskundigen identificeren, zoals geslacht en ras bij consumentenkrediet, of leeftijd en aandoeningen bij het testen van vaccins.
Snelheid van missie
De derde sleutelfactor voor de gereedheid van ai is snelheid. Snelheid ontstaat door meer mensen bij het proces te betrekken, in realtime samen te werken, en gebruik te maken van hergebruik en voortdurende verbetering. Vijftig jaar geleden, toen mensen software engineering voor het eerst als eigen discipline gingen zien, werd de Wet van Brooks bedacht. Deze wet zegt dat het toevoegen van meer mensen aan een vertraagd softwareproject het alleen maar verder vertraagd. Er waren geen schaalvoordelen omdat software grotendeels werd ontwikkeld door ambachtelijke experts: hoogopgeleide individuen die vaak alleen of in kleine groepen werkten. Ai wordt vandaag de dag meestal nog steeds op die manier ontwikkeld, door ambachtelijke goeroes die niet schalen. We hebben de afgelopen vijftig jaar veel geleerd over software-engineering en het is tijd dat we die kennis toepassen op ai om processen op industriële schaal te creëren.
Everyday ai komt eraan, maar we moeten de bouwstenen van ai-gereedheid aanpakken en versterken door ons niet enkel te richten op wat hip is, zoals zelfrijdende auto’s. In plaats daarvan moeten we aan de slag met het bijscholen van honderdduizenden burgers die we al hebben, het ontwikkelen van transparante processen, en het industrialiseren van ai-ontwikkeling en -operaties voor schaal en snelheid.