D66 en CDA willen strengere regels voor het gebruik van algoritmes door de overheid. Ze willen dat er een speciale waakhond komt die het gebruik in de gaten houdt. Ze zijn bang dat algoritmes onder meer gaan discrimineren. Maar dat is juist de taak van een algoritme. Het plaatst je in een hokje zodat je een behandeling op maat kunt krijgen. Je kunt wel aan iedereen de advertentie ‘twee trainingspakken voor de prijs van één’ tonen, maar het is efficiënter om de advertentie alleen te tonen aan personen die op de camping in Bakkum staan.
Soms is het handiger om te discrimineren omdat de doelgroep gewoon te groot is. Toen wij een poosje terug naar Israël op vakantie gingen, werd iedereen streng gecontroleerd. Het duurde een eeuwigheid voordat we door de douane waren. Ook wij werden twintig minuten streng verhoord voordat we het land binnen mochten. Ik dacht even bij mezelf: ‘Serieus, zo zien de nieuwe aspirant-leden van de PLO eruit? Twee bleke Hollanders met veel te veel kleren over elkaar aan zodat ze nog meer bagage mee kunnen nemen?’ Maar het gekund.
Twee keer doodgeschoten
Discrimineren lijkt heel vaak te werken. Als je op Schiphol alleen donkere mensen controleert, zul je zien dat alle drugs gesmokkeld wordt door donkere mensen en dat bij die witte mensen die zo door mogen lopen niks wordt gevonden.
Algoritmes maken gebruik van statistiek en het probleem met statistiek is echter dat statistisch gezien statische cijfers bijna nooit kloppen. Als je een kogel links van de haas schiet en een kogel rechts van de haas dan heb je de haas gemiddeld twee keer doodgeschoten.
Veel te veel werk
En daarom willen het CDA en D66 dat er een waakhond komt. Maar wat gaat die waakhond dan doen? Elk algoritme controleren? Dan ben je nog wel even bezig. Dat wordt veel te veel werk voor die waakhond. Het zou dus misschien handig zijn om hier ook een algoritme voor te maken.