Van 138 onderzochte landen scoort Nederland het beste op het gebied van verantwoorde ai, kunstmatige intelligentie die de mensenrechten en de principes van ethiek van a tot z respecteert. Dat concluderen wetenschappers in de zogeheten Global Index on Responsible AI, die donderdag werd gepresenteerd in de Amerikaanse hoofdstad Washington.
De ranglijst is het resultaat van een optelsom van scores op verschillende aspecten, bijvoorbeeld overheidskaders en -acties, mensenrechten en ai-governance. Hiertoe beantwoordden lokale onderzoekers in elk land ruim 1800 vragen verdeeld over negentien thema’s, zoals nationale ai-wetgeving, gegevensbescherming en privacy, proportionaliteit, vooringenomenheid (bias) en gendergelijkheid. De vragen werden vervolgens geanalyseerd door wetenschappers, omgezet in een score en vertaald in de uiteindelijke ranglijst.
Nederland scoort hoog op al deze gebieden. Dit resulteert in een totale indexscore van ruim 86, waarmee we de nummer twee (Duitsland met bijna 83 punten) en nummer drie (Ierland met bijna 75 punten) ruim achter ons laten. België staat op plek 24 met bijna 39 punten. Onderaan de lijst bungelen landen als Eritrea en Zuid-Soedan (met respectievelijk 0,56 en 0,47 punten).
Trots, maar ingetogen
Bij het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) reageert men trots, maar ingetogen op de toppositie van Nederland op de lijst voor verantwoorde ai. ‘Deze nummer 1-positie is het werk van velen en iets waar we allemaal trots op mogen zijn’, meldt Elja Daae, beleidscoördinator AI en Algoritmen bij BZK, op LinkedIn. ‘We hebben in Nederland veel aandacht voor de verantwoorde inzet van ai’.
Daae wijst erop dat Nederland ai al jaren inzet en dat de technologie ongelijkheid kan versterken, tot discriminatie kan leiden en een bedreiging voor de privacy kan zijn. De eerste plek in de wereldwijde index doet niets af aan het belang van kritisch blijven kijken naar onszelf, aldus de beleidscoördinator. Het biedt volgens haar ook de kans om de geleerde lessen internationaal te delen.
Verkaring
De toppositie op het gebied van verantwoorde ai kan Daae wel verklaren. ‘We hebben Elsa (Ethical Legal Societal Aspects) en ICAI (Innovation Center for Artificial Intelligence; red.) labs waar bedrijfsleven, overheid, wetenschap en maatschappelijke organisaties samenwerken aan specifieke oplossingen’, schrijft ze. ‘We hebben talloze coalities, stichtingen en netwerken gericht op meer bewustwording, volwassenheid en voorlichting; er zijn Nederlandse kaders en impact assessments en we beschikken over fantastische lectoraten en faculteiten binnen onze hogescholen en universiteiten en al het talent dat ze aantrekken.’ Ze sluit af met de boodschap dat de overheid zich bewust is van de gevaren, maar naar de kansen blijft zoeken.
Toeslagenaffaire
De toeslagenaffaire is een voorbeeld van onverantwoord gebruik van kunstmatige intelligentie. Op basis van onduidelijke en vooringenomen rekenmodellen werden tienduizenden Nederlanders onterecht bestempeld als fraudeur. Velen moesten duizenden euro’s terugbetalen, wat hen in grote financiële problemen bracht. Hoewel dit al jaren geleden speelde, duurt de afwikkeling van deze affaire bij veel gedupeerden nog steeds voort.
10 conclusies van de Global Index on Responsible AI
1: AI-governance vertaalt zich niet in verantwoorde AI.
2: Mechanismen die de bescherming van mensenrechten in de context van AI waarborgen, zijn beperkt.
3: Internationale samenwerking is een belangrijke hoeksteen van de huidige praktijken voor verantwoorde AI.
4: Gendergelijkheid blijft een kritieke kloof in inspanningen om verantwoorde AI te bevorderen.
5: Belangrijke kwesties van inclusie en gelijkheid in AI worden niet aangepakt.
6: Werknemers in AI-economieën zijn niet voldoende beschermd.
7: Verantwoorde AI moet culturele en linguïstische diversiteit omvatten.
8: Er zijn grote lacunes in het waarborgen van de veiligheid, beveiliging en betrouwbaarheid van AI-systemen.
9: Universiteiten en het maatschappelijk middenveld spelen cruciale rollen bij het bevorderen van verantwoorde AI.
10: Er is nog een lange weg te gaan om adequate niveaus van verantwoorde AI wereldwijd te bereiken.
Bron: Global Index on Responsible AI (GIRAI) 2024
De toeslagenaffaire is naar mijn mening NIET een voorbeeld van onverantwoord gebruik van kunstmatige intelligentie maar een voorbeeld van een slechte governance door:
1. Geen transparantie in besluitvormingsprocessen omdat belanghebbende geen belang hebben in een open overheid.
2. Geen verantwoordingsplicht waardoor bestuurders de ‘ongenaakbaren’ zijn in besluitvormingsprocessen.
3. Geen rechtszekerheid voor de slachtoffers waardoor er een verlies aan vertrouwen in de rechtsstaat is.
4. Geen ethisch gedrag omdat eigen morele waarden boven maatschappelijk geldende waarden en normen gaan.
5. Geen (burger)participatie in besluitvorming door indirect vertegenwoordiging met verwatering via coalities.
6. Geen risicomanagement door optimisme in oplossingen zonder strategische visie over bovenstaande punten.
Een coalitie van gewilligen welke stelt dat wij voorop lopen in verantwoorde AI klinkt hierdoor als het ‘overweldigende bewijs’ waarmee we telkens weer een oorlog in gerommeld worden. Want hebben lokale wetenschappers niet gewoon een belang in nietszeggende rapportcijfers voor de werkverschaffing aangaande dit soort onderzoeken?
Alsof AI nodig is voor onverantwoord gedrag.
Welke rol zou AI gespeeld hebben in het nooit uitbetalen van de beloofde 30.000 euro compensatie ?
Maar laten we moed houden. Ik begreep dat de regeringspartijen eindelijk iemand heeft kunnen vinden die er geen omvolkingstheorieen op na houdt.