Interview | Europarlementariër Kim van Sparrentak (GroenLinks)
De meeste bedrijven hebben weinig tot niets te vrezen van de nieuwe EU AI Act, omdat het overgrote deel van de ai-software die ze de komende jaren zullen uitrollen buiten de hoog-risicocategorie valt. Volgens Europarlementariër Kim van Sparrentak (GroenLinks), die namens de Groenen de onderhandelingen voerde over deze baanbrekende wetgeving, is de soep niet zo heet als hij lijkt te worden opgediend.
Van Sparrentak is het bepaald niet eens met onder meer KPMG die stelt dat bijna alle ai, die organisaties momenteel ontwikkelen of uitrollen, van de categorie ‘hoog risico’ is. Zo verstrekkend zijn de gevolgen bepaald niet, stelt de politica – die de langste onderhandelingen uit de EU-geschiedenis intensief meemaakte.
De Europese Commissie, het Parlement en de Raad hadden op vrijdag 8 december nog amper een mondelinge deal bereikt, of de vele adviesbureaus trokken al hun conclusies. Zonder dat het akkoord in details is uitgewerkt, stuurden consultants hun klanten al uitvoerige interpretaties. Zo las Van Sparrentak een rapport van een Amerikaans adviesbureau waarin regelrechte onwaarheden stonden. ‘Complete schema’s gaan al rond van wat wel en niet mag.’ Dat is te voorbarig en kan bij bedrijven tot onnodige paniek leiden.
Verordening
Van Sparrentak adviseert het bedrijfsleven voorlopig te wachten met de voorbereidingen op de nieuwe verordening. ‘Het duurt zeker nog tot februari voordat het akkoord is uitgewerkt en met regels en al op papier staat. Later pas wordt duidelijk hoe een bedrijf aan bepaalde vereisten kan voldoen. Die extra wetgeving komt er nog aan. Wel kunnen bedrijven alvast een overzicht maken van alle ai-systemen die in ontwikkeling zijn of al worden gebruikt.’ Straks zal blijken dat maar weinig echt verboden wordt. Alleen ai-systemen die de mens schaden, zijn onaanvaardbaar. De mensenrechten zijn in het geding bij ernstige manipulatie, het exploiteren van kwetsbaarheden van bepaalde groepen, social scoring zoals in China, massale gezichtsherkenning, emotieherkenning op het werk of op school, discriminatie, predictive policing en sommige biometrische identificatie.
Van Sparrentak benadrukt dat ai-systemen met een hoog risico niet worden verboden. ‘De tegenstanders hebben een soort schrikbeeld geschapen dat de EU alles kapot reguleert. Maar die kritiek komt van organisaties voor wie elke regel er één te veel is. Als je de eerste commentaren leest, lijkt het alsof er straks niks meer mag en alles ingewikkeld wordt.’ De werkelijkheid ligt anders. Natuurlijk hadden de Groenen waartoe Van Sparrentak behoort, wel meer regels gewild. Maar dat is niet gelukt vooral omdat de industrielobby van een ongekend grote omvang was. ‘De grote techbedrijven moeten hartstikke tevreden zijn. De wet is toch behoorlijk verwaterd. In het begin leek die strenger te worden. We kregen echter met een harde lobby te maken.’ Volgens haar is die op sommige punten effectief gebleken. Een voorbeeld: om te bepalen of bepaalde ai-software echt schadelijk kan zijn, moet eerst een uitgebreid systeem van tests worden doorlopen. ‘Zonder inspanningen van de industrielobby was deze extra filter er niet gekomen. In principe was dat niet de bedoeling.’
Founding models
Behalve door de krachtige lobby van grote ai-spelers zoals OpenAI/Microsoft, Google en AWS werd de totstandkoming van de AI Act ook vertraagd door Frankrijk, Duitsland en Italië die ‘foundation models’ en de grote taalmodellen buiten de wetgeving wilden houden en de applicaties centraal wilden stellen. In het eerste ontwerp zaten deze basismodellen erin, vervolgens gingen ze eruit, bij de komst ChatGPT keerden ze terug, onder Franse druk verdwenen ze opnieuw en na een zwaarbevochten compromis kwamen ze er op het laatste moment weer in.
Uiteindelijke resultaat is dat de strenge voorwaarden alleen gelden voor grote modellen met een hoog risico zoals OpenAI’s ChatGPT en Google’s Gemini. De Nederlandse hoogleraren Corien Prins, Natali Helberger en José van Dijck concluderen in de NRC dat de meeste ai-modellen daardoor grotendeels ongereguleerd blijven. Bepaald is dat de modellen van het Franse Mistral en het Duitse Aleph Alpha tot de categorie laag risico behoren. ‘Die hebben minder risico omdat ze niet zoveel bereik hebben en ook niet zoveel kunnen,’ legt Van Sparrentak uit. Maar mochten ze groot worden, dan komt er een moment dat ze toch in de hoge categorie worden geplaatst. Het compromis is dat ook deze Europese bedrijven als makers onder de aansprakelijkheidswetgeving gaan vallen en verantwoordelijk worden. Deze ‘last’ verschuift dus van de ‘downstream’-gebruikers die op deze ‘ai-grondsystemen’ voortborduren. Volgens de GroenLinks-Europarlementariër is de AI Act best flexibel. In de toekomst zijn updates mogelijk als de ontwikkeling van de technologie dat nodig maakt.
Onheil
Grote delen van de wetgeving zijn erop gericht onheil te voorkomen. Deze regels moeten het risico minimaliseren dat een of andere malloot ai op de verkeerde manier gaat gebruiken. Kim denkt daarbij niet alleen aan criminelen en terroristen maar ook aan statelijke actoren met verkeerde intenties.
De ai-aanbieders van buiten de Big Tech hoeven vooralsnog alleen maar aan een handjevol voorwaarden te voldoen. Denk aan een meldingsplicht en wat transparantie. De datasets moeten kloppen. Die data mogen niet zijn gestolen. Auteursrechten moeten worden geëerbiedigd. Ook zijn er voor de hand liggende eisen als de cyberveiligheid en het testen van de systemen.
Belangrijk is het maken van technische documentatie voordat een ai-systeem op de markt wordt gebracht dan wel in gebruik wordt genomen. Volgens Kim werkt dat allerminst bureaucratisch. ‘Bedrijven hebben er alleen maar baat bij dat software goed wordt gedocumenteerd, niet alleen de eerste versies maar ook de updates.’ Ook zaken als risicobeheer, data governance en logging horen in orde te zijn. Ook de gebruikers van de software zijn gediend met voldoende transparantie. Ze moeten weten hoe ai-systemen werken. Kim: ‘En het kan toch geen kwaad dat enig nadenken is vereist voordat systemen op de markt worden gebracht.’
Van Sparrentak is het volstrekt oneens met die lieden die roepen dat de wetgeving doorslaat en de innovatie remt. In de laatste onderhandelingsfase die 38 uur duurde, moesten negentig beleids- en wettenmakers in Brussel het met elkaar eens worden. Uit dit Europees krachtspel kwam uiteindelijk een gebalanceerd resultaat. Van Sparrentak: ‘Als zoveel partijen tot een akkoord moeten komen, verdwijnen onevenwichtigheden van zelf.’
Zou mooi zijn als de EU en haar parlement zich ook eens bezig ging houden met voorwaarden scheppen i.p.v. niet al te veel schade aanrichten.