Volgens het Rathenau Instituut moet de overheid aanvullende maatregelen nemen bij de verantwoorde inzet van algoritmes door ambtenaren. Hierdoor verbetert het debat en worden lastige keuzes en afwegingen verhelderd.
De overheid doet al veel om het ambtelijk gebruik van algoritmes in goede banen te leiden, aldus de Haagse denktank. Zo zijn er afspraken over goed digitaal openbaar bestuur, over non-discriminatie, over publieke waarden en mensenrechten en over toetsing op vooringenomenheid. Maar de overheid kan verdere stappen nemen, vindt het Rathenau.
De vervolgstappen die de beleidsonderzoekers voor ogen hebben, hebben betrekking op non-discriminatie, privacy en veiligheid. De afweging daartussen vraagt om een debat met lastige keuzes, schrijven ze aan de Tweede Kamer (pdf). ‘Het zal zelden mogelijk zijn alle kans op discriminatie te elimineren. Algoritmische systemen kunnen niet volledig bestand zijn tegen hacks. En er is geen garantie dat de privacy van mensen nooit ingeperkt wordt.’
Aanbevelingen
Om het debat onderbouwd te voeren, is het noodzakelijk dat het parlement inzicht heeft in de wijze waarop overheidsorganisaties ai-toepassingen wegen. Het Rathenau komt hiervoor met drie aanbevelingen: waarborging van de informatievoorziening aan het parlement, versterking van de juridische waarborgen voor non-discriminatie en verheldering van de juridische eisen aan het motiveringsbeginsel. Dit reeds afgesproken beginsel verplicht overheden te onderbouwen hoe ambtenaren beslissingen nemen die voor een deel zijn gestoeld op algoritmische selecties. Een menselijke beslissing geeft immers geen verklaring voor de werking van het algoritme dat daarvoor werd geraadpleegd.
Op 15 februari spreekt de parlementaire commissie Digitale Zaken over de inzet van algoritmes en data-ethiek binnen de rijksoverheid. Dit was voor het Rathenau de aanleiding om met de drie aanbevelingen te komen.
Onderstaande uitgangspunt impliceert dat je fouten accepteert, de vraag is dan hoeveel fouten alleen maar statistiek zijn en bij welke aantallen de menselijkheid weer terugkeert in het proces:
“Het zal zelden mogelijk zijn alle kans op discriminatie te elimineren. Algoritmische systemen kunnen niet volledig bestand zijn tegen hacks. En er is geen garantie dat de privacy van mensen nooit ingeperkt wordt.”
@redactie
Herhaling is goed maar overdrijven is ook een vak want ik zie wel veel dezelfde links onder artikel.
[[[Toevoeging redactie]]]
Dank voor het melden Een Oudlid, we gaan er even naar kijken. Het lijkt op een technisch euvel.
Inmiddels krijg je het idee dat het allemaal de schuld van het algoritme is. Een algoritme is een uitvloeisel van wat je wilt, welke data je gebruikt. Dat laatste is waar het om gaat, de specs. Om een voorbeeld te noemen, de toeslagen affaire is mensenwerk en men wist precies waar men bezig was. Dat is niet de schuld van het algoritme.
Nee Louis, het is de schuld van de ict-ers want die doen dingen met computers 😉