De Europese privacytoezichthouders pleiten voor een algemeen verbod op gezichtsherkenning. Ook andere realtime-biometrie in de openbare ruimte zou niet moeten worden toegestaan. De waakhonden, verenigd in de European Data Protection Board (EDPB), wijzen daarmee op de keerzijde van een belangrijke technologische ontwikkeling.
Dit blijkt uit hun reactie op een wetsvoorstel van de Europese Commissie over kunstmatige intelligentie (ai). Ook ai-systemen die burgers indelen op basis van bijvoorbeeld etniciteit, geslacht of seksuele voorkeur zijn volgens de EDPB een gevaar. Behalve de EDPB vindt ook de Europese toezichthouder EDPS dat de risico’s van gezichtsherkenning te groot zijn om de techniek toe te staan in de openbare ruimte. Dit geldt ook voor vergelijkbare technieken, zoals stemherkenning en bewegingsherkenning.
Surveillancemaatschappij
De huidige tekst van het wetsvoorstel maakt het mogelijk dat overheden dit soort technieken inzetten om bijvoorbeeld criminaliteit tegen te gaan. Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP) en vicevoorzitter van de EDPB, heeft geen boodschap aan het belang van misdaadbestrijding. Volgens hem weegt de hulp die deze systemen aan de politie bieden niet op tegen wat hij noemt ‘het opgeven van ieders vrijheid’. Hij verzet zich fel tegen het ophangen van camera’s met gezichtsherkenning op straat of in het openbaar vervoer. Volgens hem brengt ons dat een stap dichter bij een surveillancemaatschappij.
De EDPB en de EDPS pleiten ook voor een verbod op ai die emoties herkent. Aan emotieherkenning kunnen grote risico’s zitten voor de vrijheid van burgers. De AP noemt als voorbeeld werkgevers die werknemers een slechte beoordeling geven als zij te vaak ‘boos’ kijken terwijl ze achter hun computer zitten. Een ander voorbeeld zijn werknemers die moeten glimlachen om toegang tot de werkplek te krijgen. Ook acht men het denkbaar dat de politie uit voorzorg mensen staande houdt die volgens het systeem ‘boos’ of ‘ontevreden’ zijn terwijl zij op straat lopen.
Sleutelen
De privacytoezichthouders van de EU vinden dat de Europese Commissie nog veel aan het wetsvoorstel over ai moet sleutelen. De EDPB en de EDPS menen dat veel regels nog niet voldoende duidelijk zijn. Zo is niet helder welke partij de wet moet gaan handhaven en hoe dat precies in zijn werk gaat. Aanscherping behoeven de regels wanneer er met systemen data worden doorgegeven naar landen buiten de EU. De wet zou ook onvoldoende aansluiten op de Algemene Verordening Gegevensbescherming (AVG). Daarnaast zijn de procedures die bedrijven moeten doorlopen anders dan in de AVG. Dit zorgt voor verwarring en maakt het ingewikkeld voor bedrijven en andere organisaties om aan de wet te voldoen.
Biometerie heeft als voordeel dat de authenticatie veel minder fraudegevoelig is want iets hebben en iets weten is veel makkelijker uit te wisselen dan iets zijn. Of de meerderheid het met de voorzitter van de Autoriteit Persoonsgegevens eens is als door persoonsverwisselingen criminelen vrij rondlopen is een vraag die beantwoord moet worden via normale democratische regels. Want dat we reeds in een surveillancemaatschappij leven komt door de vraag naar veiligheid waarin het ophangen van camera’s het standaard antwoord is geworden. Big brother is al een realiteit en hoewel de beelden bij Opsporing verzocht anders doen vermoeden is de kwaliteit van de beelden aanzienlijk verbeterd waardoor dus op afstand iemand al herkent kan worden. De voortschrijvende technologie heeft dus aanzienlijke impact alleen niet per definitie op onze privacy omdat er een verschil zit tussen bespieden en bewaken. Iemands vrijheid kan door een rechter beperkt worden, bijvoorbeeld omdat de veiligheid van een ander in het geding is.
Publieke opinie zal zich tegen de voorzitter van de Autoriteit Persoonsgegevens keren als de daders beschermd worden in plaats van de slachtoffers. Etnische profilering van het is wit en daarom moreel fout is een omgekeerde weergave van de feiten. De voorzitter van de Autoriteit Persoonsgegevens vergeet dat uiteindelijk veel regels middels de jurisprudentie van rechtelijke uitspraken gepolijst worden en het is goed om vragen te stellen over het eeuwen oude Juvenalis dilemma wie straks de toezichthouders controleert, AP is uiteindelijk de toezichthouder en aanklager maar niet de rechter. Het scheiden van de adviserende en besluitvormende rol lijkt me raadzaam want je haalt de politicus wel uit de Pvda maar de PvdA niet uit de politicus.
@Oudlid
Biometrie minder fraudegevoelig? Kijk aub. dan even naar dit filmpje:
https://www.youtube.com/watch?v=wzXA8TXfWq0
KJ,
De essentie van mijn reactie gaat vooral om de fysieke controle waarbij unieke biometrische kenmerken voorkomen dat een gelijkend familielid zich voordoet als de ander. Zit de veroordeelde in zijn cel of is het zijn gelijkende broer? Of wat dacht je van een gelijkend familielid die zonder diploma’s zich voordoet voor een ander en daardoor een groot ongeluk veroorzaakt? Natuurlijk is er nog zoiets als proportionaliteit maar de vraag of degene onweerlegbaar degene is die hij/zij zegt te zijn kan soms alleen maar beantwoord worden met biometrie.
Ik gaf al het voorbeeld van iemand met een opgelegd gebiedsverbod die zich opzettelijk en mogelijk met vermomming toch in dat gebied laat zien. De voorzitter van de Autoriteit Persoonsgegevens gaat uit van het goede in de mens maar dat is naïef. Het is mooi als AI voor een veiligere samenleving zorgt want voorkomen is beter dan genezen. De beslissing tot het dodelijke schot op basis van een razendsnelle beoordeling van de bedreiging gaat om beschermen van de kudde en de wolf in schaapskleren binnen de kudde herkennen gaat om het analyseren van het gedrag.
@Oudlid
En mijn standpunt is dat authenticatie nooit 100% betrouwbaar is, aangezien iedere biometrische methode die berust op technologie eenvoudigweg kan worden gehackt. Het bedrijf in mijn filmpje, pineyes.com, gebruikt bijvoorbeeld AI om biometrische patronen op foto’s te herkennen. Die AI blijkt dus op kinderlijk eenvoudige wijze te kunnnen worden omzeilt door het toevoegen van ruis. Die ruis kan zelfs zodanig worden gegenereerd dat persoon A door de AI wordt herkend als persoon B.
Aangezien jij ook al wat langer meeloopt in de IT, zou je nu toch wel moeten beseffen dat elke technologische innovatie die tot nut van de mens is, ook kan worden aangewend voor cybercrime. De kosten voor het tegengaan van cybercrime nemen toe en vormen uiteindelijk een rem op het in gebruik nemen van nieuwe produkten.
Wellicht dat toekomstige jonge ondernemers misschien weer eens gaan kijken naar low-tech middelen om hun bedrijven te ondersteunen en zich gaan richten op de lokale markt omdat tech aanwending gewoonweg te duur en te onveilig is geworden.
KJ,
Er is inderdaad een statistische mogelijkheid dat er iets fout gaat in de authenticatie maar de kans daarop verschilt nogal, gezichtsherkenning heeft de hoogste foutmarge en handpalm scanning de laagste. En hetzelfde geldt voor een impact op de privacy, je herkent mensen vanaf grote afstand maar je kunt een handpalm pas scannen na ‘oplegging’ en zult hiervoor goedkeuring moeten hebben. Elke biometrische authenticatie kent echter een kleinere foutmarge dan het uitwisselbare van hebben en weten, misleiding wordt heel wat lastiger als je authenticatie gebasseerd is op unieke biometerische kenmerken. Oja, het nut van technologie voor de mens en de mensheid is maar net aan welke kant je van de camera staat.
Ja, artikel 10 camera’s in het publieke domein hebben impact op de privacy en dat zal nog erger worden met de mogelijkheden van AI. Het koppelen van een profielfoto vanuit sociale media aan camerabeelden was één van bezwaren die geuit werden over Google Glass. Het heeft dan ook weinig nut om technologie te verbieden als bepaalde partijen zich niet conformeren aan de wet en een toezichthouder te weinig capaciteit heeft om te handhaven. En terug naar low-tech is geen realistische keus want Europa loopt in deze race al achter, zoals we helaas ook achter lopen in allerlei regelgeving over het gebruik van technologie.
Je kunt AI trouwens ook gebruiken om gezichten onherkenbaar te maken zoals een ieder AI gebruikt om niet iedereen een kijkje in de keuken te bieden tijdens videovergaderingen. Ik kies dus voor de andere optie, AI wordt verplicht om de privacy te waarborgen;-)