TNO heeft plannen om proeftuinen voor verantwoordelijke artificial intelligence (responsible ai) in te richten. Door de toepassing van ai voor algoritmische besluitvorming eerst in een experimentele omgeving te laten plaatsvinden, zijn de nadelen van ai-systemen aan het licht te brengen.
Dit blijkt uit een rapport dat TNO heeft opgesteld. De overheid kan niet zomaar besluiten gaan nemen waarbij een algoritme de uitkomst bepaalt. TNO vindt dat bloedlink, zeker als ai invloed heeft op het leven van burgers. Dit geldt bijvoorbeeld als ai wordt ingezet om te bepalen of iemand in aanmerking komt voor schuldhulpverlening.
In zo’n geval dreigen onbedoelde nadelige gevolgen. Eerdere onderzoeken van het Rathenau Instituut, de Algemene Rekenkamer en TNO wijzen op dit soort risico’s. Zo kan het fout gaan als vooringenomenheid in data of in een algoritme sluipt. Dat leidt al gauw tot discriminatie.
Normenkaders
Ook bij het verkennen van maatschappelijke vraagstukken is het van belang eerst experimenten te doen. In een proeftuin kunnen tijdig de risico’s in kaart worden gebracht die zich voordoen bij de ontwikkeling van ai-systemen. Het opstellen van normenkaders vooraf en de toetsing van de systemen achteraf zijn onvoldoende om ongewenste negatieve effecten te voorkomen. De belangrijkste aanbeveling van TNO is de ai-systemen in proeftuinen stapsgewijs te beproeven.
Elk stap kent eigen risico’s: van het genereren van gegevens tot verzameling en bewerking. En van het gekozen ai-model tot aan de uitkomsten van het systeem. Bovendien biedt zo’n experimentele opzet de gelegenheid om verschillende betrokkenen waaronder burgers te laten meedenken.
In dit verband is een methodiek toe te passen voor de toetsing van verantwoordelijke ai-systemen. TNO ontwikkelde daartoe de dynamische impact assessment. In de ontwerpfase worden burgers en andere stakeholders betrokken. Dit gebeurt om de verschillende belangen mee te wegen. Antwoord zal moeten worden gegeven op de vraag wat het gerechtvaardigd belang is om data en ai in te zetten
In de demonstratiefase komt de vraag aan de orde of burgers voldoende begrijpen hoe het systeem werkt. En wat voor impact dit op hun leven kan hebben. Andere kwesties zijn of datasets correct of vooringenomen zijn. En of algoritmen tot discriminatie of uitsluiting leiden. Verder gaat het om transparantie, uitlegbaarheid en de inrichting van menselijke controle. Bij de implementatiefase horen vragen als hoe kunnen we burgers uitleg geven over de werking van ai-systemen. Ook de langetermijnimpact verdient aandacht. Als systemische effecten dreigen moet hierop controle mogelijk zijn.
Bijsluiter
Kern van de aanpak is dat de verschillende belangen gedurende het experiment meedoen met de toepassing van het ai-systeem. Bovendien moet op dynamische wijze controle worden uitgeoefend op de toepassing van ai-systemen. Verder moet het ai-systeem desgewenst aan te passen zijn. Belangrijk is ook dat de resultaten op begrijpelijke wijze worden gecommuniceerd. Gedurende de toepassing wordt gerapporteerd wat de risico’s en impact zijn. Hiervoor wordt een gestandaardiseerde ‘bijsluiter’ ontwikkeld die begrijpelijk is voor burgers.