De overheid moet transparant zijn over de inzet van voorspellende algoritmes. Ook hebben burgers het recht te weten hoe die rekenmodellen tot een conclusie komen, zeker als het gaat om beslissingen over individuele zaken als aanvragen of het toekennen van regelingen. Dat stelt voorzitter van de Autoriteit Persoonsgegevens (AP) Aleid Wolfsen.
De voorzitter reageerde deze week op onderzoek van de NOS naar de inzet van algoritmen bij de overheid. ‘De overheid moet daar transparant over zijn, en moet helder maken op welke manier jouw gegevens worden verwerkt en hoe die besluiten tot stand komen’, aldus Wolfsen.
Wolfsen benadrukt dat de inzet van algoritmes door de overheid is toegestaan. ‘Maar een belangrijke voorwaarde is dat ze alleen worden gebruikt als het eerlijk, slim en transparant gebeurt.’
Hij is bezorgd over discriminatie. ‘De vooroordelen die we allemaal hebben, kunnen in computerprogramma’s terechtkomen’, zegt hij tegen de NOS. Vandaar dat hij wijst op het belang van een transparantie rondom de inzet van algoritmes door de overheid. ‘Als er een besluit over je wordt genomen en je weet niet hoe dat tot stand is gekomen, dan kun je je daar niet tegen verdedigen’, zegt Wolfsen tegen de omroepstichting.
Keurmerk
De NOS meldde eerder dat de overheid op brede schaal algoritmen inzet voor beslissingen rondom aanvragen van burgers. Dat gebeurde na een wob-verzoek (wet openbaarheid bestuur). In een overzicht delen verschillende overheidsinstanties informatie over het gebruik van algoritmen en wat dit voor burgers betekent.
Er gaan al langer stemmen op voor het duiden van de uitkomsten van algoritmen, bijvoorbeeld via een keurmerk.
Ook zijn er verschillende bedrijven die ethische raden oprichten die toezien op de inzet van ai en algoritmen om naar eigen zeggen klanten te beschermen tegen onethische beslissingen van informatiesystemen.
Wat boven – ook door Wolfsen – wordt gesteld is een beetje omgekeerde wereld.
Overeenkomstig art. 22 lid 1 AVG is de inzet van algoritmes bij besluitvorming *NIET* toegestaan indien voor de betrokkene aan dat besluit rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft.
Art. 22 lid 2 AVG maakt daarop slechts drie uitzonderingen en stelt daartoe in lid 3 en 4 stringente voorwaarden.
Daarnaast geldt, naast de uitlegverplichting van de AVG, voor besluiten door de overheid reeds lang het motiveringsvereiste zoals tegenwoordig vastgelegd in o.a. artikel 3:46 Algemene Wet Bestuursrecht en diverse proceswetgeving.
Kort gezegd : een algoritme mag alleen beslissingsondersteunend zijn, voor een daarop gebaseerd besluit is menselijke tussenkomst vereist, en die tussenkomst dient verder te gaan dan een simpele druk op de knop.
Geen ‘Computer says no’, het is aan de besluitnemer om alles ‘luid en duidelijk’ uit te leggen.
P.J. Westerhof,
Uit WOB verzoek komt naar voren dat de overheid op grote schaal gebruik maakt van profilering in de opsporing naar strafbare feiten zoals fraude bij burgers. Dat het maatschappelijke draagvlak hiervan aan het eroderen is komt door de Kafkaeske klucht rond de dividendbelasting, de stemmingmakerij van AP aangaande de algoritmen komt sommige politici niet ongelegen.
Zeker zitten er nadelen aan het gebruik van algoritmen in de opsporing van fraude, zo zou er weleens uit kunnen blijken dat politici onterecht allerlei vergoedingen krijgen.