Er is weer een nieuwe podcast verschenen van De Dataloog waarin Computable het belangrijkste nieuws van de afgelopen weken de revue laat passeren. Naast aandacht voor security, privacy en cloud, was er opvallend veel nieuws over artificial intelligence (ai).
De Rekenkamer Rotterdam heeft volgens de Volkskrant geconstateerd dat er vooringenomenheid in een door Rotterdam gebruikt algoritme kan sluipen. Rotterdam gebruikt een algoritme om uitkeringsfraude op te sporen. Het algoritme berekent op basis van input van verschillende systemen wat de kans is dat iemand ten onrechte een uitkering ontvangt. En signaleert dat iemand aan een nader onderzoek moet worden onderworpen.
Algoritmeregister
Afkomst en nationaliteit mogen wettelijk niet worden meegenomen als ‘feature’ van zo’n algoritme, maar het algoritme gebruikt wel andere kenmerken zoals ‘laaggeletterdheid’. Laat er nou een correlatie zijn tussen afkomst en laaggeletterdheid en je hebt de poppen aan het dansen. De Rekenkamer geeft daarom aan dat dit in strijd is met een ethisch principe, namelijk eerlijkheid. Het advies van de Rekenkamer is ook om een algoritmeregister aan te leggen, met hierin een beschrijving van risico’s en hoe hiermee om te gaan.
Dergelijke regels zouden onderdeel kunnen zijn van een plan van de Europese Unie (EU). De EU heeft regels voorgesteld die de basis moeten vormen van een nieuw wetgevend kader rond kunstmatige intelligentie. Dat moet zowel burgers vertrouwen geven in ai, als de introductie en ontwikkeling stimuleren.
Gradaties in regels
Hoe hoger het risico, hoe strenger de regels. Dat is het uitgangspunt waarmee de EU de nieuwe regels heeft opgesteld. Daarbij zou bijvoorbeeld ai die de veiligheid of de grondrechten van de burgers bedreigt compleet verboden worden. Ook bijvoorbeeld ai-systemen waarbij mensen een ‘sociale score’ krijgen (zoals ze in China worden gebruikt) kunnen daarbij niet door de beugel, net zoals systemen die gezichtsherkenning in openbare ruimten mogelijk maken. Dat laatste zal alleen kunnen in noodgevallen, bijvoorbeeld bij vermissingen.
Gevoelige ai-platformen, denk aan systemen die een kredietscore kunnen opstellen of die cv’s kunnen beoordelen, zullen aan heel wat voorwaarden moeten voldoen. Gebruikers moeten weten hoe ze precies werken en de data waarvan ze gebruik maken, moet van hoge kwaliteit zijn, bijvoorbeeld om ‘bias’ (vooringenomenheid) te voorkomen. Te allen tijde zullen mensen ook toegang tot de systemen moeten hebben. De regels moeten nog door het Europees Parlement en de lidstaten goedgekeurd worden, een procedure die nog jaren kan duren.
Deepfake-video’s
De EU komt als eerste ter wereld met dergelijke regels, net zoals een paar jaar geleden met de GDPR/AVG. In de voorgestelde wetgeving gaat de EU uit van een piramide. Hoe groter het risico, hoe meer regels er nodig zijn. Onder in de piramide staat de ai waaraan nauwelijks risico kleeft. Denk aan spamfilters of een aanbevelingsalgoritme van Spotify. Daarboven komt ai met een beperkt risico, zoals chatbots of het maken van deepfake-video’s. De derde laag betreft ai met hoog risico. Hierbij gaat het om systemen die bepalen of iemand een lening of hypotheek krijgt of een systeem dat cv’s beoordeelt. De vierde en hoogste laag zijn de ai-toepassingen met een onaanvaardbaar risico, zoals de sociale score. Ook camera’s met gezichtsherkenning worden in de EU aan banden gelegd, deze horen ook tot deze categorie.
Deepfake-video’s worden dus als een beperkt risico ingeschat. Toch kunnen dergelijke met ai gemanipuleerde video’s verstrekkende gevolgen hebben, zo zagen we laatst met het gesprek via Zoom dat Tweede Kamerleden recent hadden met Leonid Volkov, een medewerker van Navalny, de Poetin-criticus die recent in hongerstaking was. Tweede Kamerleden hadden een gesprek met hem, maar het bleek iemand anders te zijn die met behulp van deepfake-technologie op de echte Volkov leek.
Grappenmakers
Volkov (de echte dus) zegt dat twee Russische ‘grappenmakers’ zich voor hem uitgeven en daarbij dus deepfake-technologie gebruiken. Die technologie maakt het mogelijk een gezicht in een video(verbinding) te vervangen door een ander gezicht. Op die manier kun je iemand van alles laten zeggen. Maar of deze technologie hier daadwerkelijk gebruikt is, is moeilijk te zeggen. De Tweede Kamer zelf bevestigt dit niet, er is nog veel onduidelijk over deze ‘affaire’. Of dit een voorbeeld van ai in de praktijk is, moeten we dus nog even afwachten.
Hoe dan ook, diverse Kamerleden geven aan dat het een vreemd gesprek was, waarbij de antwoorden van de zogenaamde Volkov niet sterk waren. Het was in ieder geval geen geslaagde poging om Navalny in diskrediet te brengen, want er gaan ook geluiden op dat het Russische regime deze ‘grappenmakers’ inhuurt om politieke tegenstanders belachelijk te maken en verwarring te zaaien.
Deepfakes detecteren
Hoogleraar computer vision Theo Gevers van de Universiteit van Amsterdam roept bij de NOS Nederlandse politici op voorzichtig te zijn, want de techniek om je live voor te doen als een ander bestaat en wordt alleen maar geavanceerder. ‘Politici moeten op dit gebied goed geïnformeerd zijn. Als iemand uit de Kamer of regering een belangrijk videogesprek voert, moet er altijd een deepfake-deskundige in het gesprek aanwezig zijn.’
Er zijn technische manieren om deepfakes te detecteren, ook tijdens livegesprekken. Gevers ontwikkelt daar software voor. Daarnaast zijn er volgens hem basale trucjes waardoor een deepfaker door de mand zou kunnen vallen, zoals de spreker vragen een hand voor de mond te houden, te knikken of om andere micro-expressies in het gezicht te laten zien. Volgens Gevers zijn de opkomst van Zoom en Teams de oorzaak van deze nieuwe risico’s.
Nieuw ai-nummer Nirvana
En dat er tegenwoordig met ai zaken te realiseren zijn waarbij echt niet meer van nep te onderscheiden is, bleek ook wel uit een ander opvallend nieuwtje in de Volkskrant. Uitgerekend op de 27e sterfdag van Kurt Cobain (lid van ‘De club van 27’) verscheen een gloednieuw nummer van Nirvana: ‘Drowned in the Sun’. Geen echt nummer, maar een nummer dat door Magenta, een ai-programma van Google, is geproduceerd. Magenta kreeg 25 liedjes van Nirvana als input, en analyseerde melodie, ritme en tekst. Vervolgens werd een nieuw liedje gemaakt.
Veel fans reageren teleurgesteld en vinden dit een vorm van heiligschennis. Een recensent van de Volkskrant reageerde opgelucht. ‘Knap gemaakt, maar zelfs niet genoeg als B-kant van een Nirvana-single. Het couplet gaat nog, maar in het refrein ontbreekt het muzikale vernuft volledig.’ Of de Volkskrant-recensent gelijk heeft, laten we in het midden, maar dat er tegenwoordig veel mogelijk is met digitale middelen als ai, zoveel staat vast.
De Dataloog, 28 april 2021
In de Datanieuws-podcast van De Dataloog komen de volgende onderwerpen aan bod:
- Geestelijke vader van de pdf overleden
- Bouw Amsterdam Data Exchange gestart
- 6 startups spekken bankrekening
- Tweede Kamer krijgt vaste commissie Digitale Zaken
- Russisch deep fake-gesprek was mogelijk grap
- Isala krijgt dataoplossing voor medische analyses
- Magenta-ai schrijft nieuw Nirvana-nummer
- NWO maakt data beter vindbaar met unieke nummers
- Data Science for Supply Chain Forecast
- Cyberburgemeesters luiden de noodklok
- Vooringenomen ai in Rotterdam
- EU wil ai aan banden leggen
- Zelfvoorzienend datacenter voor energie-neutrale cloud
- 5 stappen richting slimmere chatbots
- IBM-mainframes leven op
- De data-uitagenda