Regeldruk die vooral kleine ai-ontwikkelaars treft, vertraging van innovatie, en investeerders die Europa mijden. Dat zijn in het kort de zorgen over een nieuw EU-wetsvoorstel om artificiële intelligentie (ai) streng te reguleren. Twee experts over de hoofdlijnen van die wet en het effect ervan in de praktijk.
Woensdag 21 april werd het wetsvoorstel over de ontwikkeling en het gebruik van ai binnen de EU behandeld. Er is veel lof voor de poging om ai te reguleren en de privacy en rechten van burgers centraal te stellen. Maar hoe zal de wet in de praktijk vorm krijgen en wat zal de impact ervan zijn op de snelgroeiende ai-sector?
Volgens jurist Bart Schermer, medeoprichter van Considerati, een adviesbureau voor public affairs en juridische zaken rondom digitalisering, is het wetsvoorstel in vergelijking met een eerdere concepttekst flink ‘afgezwakt’. De lijst met ‘verboden’ en als ‘hoogrisico-geclassificeerde’ ai-toepassingen is korter en lang niet alle ai-toepassingen waarmee de keuzes van burgers is te beïnvloeden, zijn verboden. ‘Eerder stonden ook marketing-tools op de lijst. In de nieuwste versie van de wetstekst is ai voor bepaalde marketingdoelen wel degelijk toegestaan. Bijvoorbeeld voor het geven van suggesties op basis van iemand zijn eerdere aankoopgedrag’, schetst Schermer.
Schermer veracht dat veel branches en bedrijven zullen gaan lobbyen om hun product uit de lijst van ‘hoogrisico’-oplossingen te krijgen. Daarmee voorkomen ze een uitgebreid toetsingstraject en een hele papierwinkel om hun product om de Europese markt te krijgen. Ook zal er een bloeiende adviestak ontstaan rondom ai en juridische zaken, iets wat we ook zagen rond de invoering van de AVG in 2018, verwacht hij.
‘De ontwikkeling van ai-systemen en de implementatie ervan wordt veel strenger gereguleerd. Er moeten allerlei zaken worden vastgelegd en getoetst, zoals de gebruikte data en de activiteiten waarvoor de ai-systemen worden ingezet. Nu worden er in labs allerlei ai-toepassingen ontwikkeld zonder dat dit gebeurd. Dat zal als de wet er straks is, anders zijn.’
Toezicht
Ook aan de toezichtkant moet nog veel kennis en ervaring worden opgebouwd. Om ai-toepassingen op inhoud te beoordelen en te controleren of gebruikte algoritmen representatief zijn en processen goed zijn ingericht, is er nog een grote stap te zetten, stelt Schermer. ‘Er zullen nog heel wat datawetenschappers moeten worden opgeleid om ai-ontwerpen, -oplossingen en -toepassingen te toetsen aan de wet.’
Die controle ligt straks niet alleen in Brussel. Branches en bedrijven zullen deels zelf toezien op de naleving van ai-regels. Als voorbeeld noemt Schermer de ontwikkeling van chatbots. ‘Het hangt ervan af wat je ermee gaat doen. Voor chatbots geldt alleen dat je moet aangeven dat de klant te maken heeft met ai en niet met een persoon.’ Die transparantie is een belangrijk onderdeel van het wetsvoorstel, vertelt hij. ‘Partijen moeten bijvoorbeeld aangeven wanneer er sprake is van een deepfake-toepassing.’
Aanbieders van chatbots die een juridisch oordeel geven, of helpen met schuldhulpverlening, zullen moeten aantonen hoe ze zijn getraind en versies van algoritme en datamodellen gaan delen, omdat ze een grote impact hebben op de persoonlijke levenssfeer. ‘Valt het systeem in de categorie van hoogrisico dan moeten ze dus aan de bak’, vat hij samen.
Gezichtsherkenning
Ook voor de inzet van ai-algoritmen voor gezichtsherkenning zullen, afhankelijk van de inzet, toetsingen komen. Schermer: ‘Het is in de EU verboden om in openbare ruimten op grote groepen mensen ai-toepassingen voor gezichtsherkenning in te zetten. Hij verwijst naar artikel 5 in de wetstekst waar verboden toepassingen van biometrie en ai worden genoemd. Maar een tweede groep van biometrische identificatie-toepassingen met behulp van ai valt straks als de wet er is, waarschijnlijk onder een andere categorie, legt Schermer uit. ‘Het matchen van een foto van een verdachte in een database, zal waarschijnlijk onder de ‘high-risksystemen’ vallen.’ In hoofdstuk 6 (lid 2 annex 3) staan alle systemen die onder strenge voorwaarden zijn toegestaan.
Schermer is kritisch over het scherpe onderscheid dat in het ai-wetsvoorstel wordt gemaakt tussen ‘provider’ (aanbieder) en ‘user’ (gebruiker). Bij de ontwikkeling van ai-toepassingen is dat namelijk vaak dezelfde partij. Schermer: ‘De EU lijkt ai vooral als product te zien waar je het Europese CE-keurmerk op kunt plakken.’
Nu de EU duidelijk het doel heeft dat ai verantwoordelijk wordt ingezet en er strenger wordt gekeken naar ai-toepassingen die impact hebben op mensen, verwacht hij dat het langer zal duren voordat ai-toepassingen op de EU-markt komen. Aanbieders moeten namelijk eerst een heel traject doorlopen.
CE-keurmerk
Schermer: ‘Ai wordt gereguleerd als ware het een product. Je mag bepaalde producten in de EU niet op de markt brengen zonder voorafgaande goedkeuring. Zo moet een broodrooster een CE-keurmerk hebben omdat het een elektrisch apparaat is. Dit gaat ook voor ai gelden. Bij productregulering is het logisch dat er een aanbieder is die een product op de markt plaatst en in de aanloop daar naartoe het conformiteitstraject doorloopt. Alleen in de prakrijk wordt ai niet altijd op de markt gebracht als een ‘softwarepakket’ en aangeboden aan een gebruiker, het wordt ook door gebruikers zelf ontwikkeld. Ook heb je combinaties waarbij een ict-partij componenten neemt van een ai-aanbieder en die gebruikt om een toepassing te maken voor een user. De vraag is dan hoe we deze partijen moeten zien en welke regels op hen van toepassing zijn.’
Te veel nadruk op verboden ai-toepassingen
Ook het Brusselse adviesbureau Agoria, dat partijen adviseert over het ontwerpen van ai-oplossingen, is kritisch. Volgens het bedrijf bevestigen de regels rond ai het vertrouwen van politici in ai, maar dreigen ze bedrijven af te schrikken. Het bureau becijferde dat het wetsvoorstel voor Europese ai-regelgeving een grote invloed heeft op ruim vijfhonderd techbedrijven in België (zie kader).
Volgens Agoria is de Europese Commissie er op gericht dat de nieuwe regels het vertrouwen bij de consument vergroten, maar zorgen ze bij bedrijven voor onzekerheid. Standaardisatie-expert Jelle Hoedemaekers van Agoria: ‘De Europese Commissie stelt dat ze de technologische mogelijkheden van ai wil omarmen en het vertrouwen in de nieuwe technologie wil verhogen door misbruik aan te pakken en uit te sluiten. Daar staan wij volledig achter. Vertrouwen verhogen vergt wel meer dan enkel de consument beschermen. We verwachten ook een helder kader van wat mag en niet mag, een gelijk speelveld voor alle bedrijven, meer bedrijven die dichtbij de gebruikers innoveren en meer kansen om technologietalenten te laten groeien of naar Europa te halen.’
Hoog risico?
Ook moet volgens Hoedemaekers duidelijk zijn wat ai-ontwikkelingen of software met een hoog risico zijn. Hij vindt dat dit nu niet duidelijk genoeg is omschreven in het wetsvoorstel. Hij vreest bovendien dat de regeldruk vooral impact zal hebben op kleine bedrijven, zoals dat bij de invoering van de AVG ook gebeurde. ‘De vereisten voor ai-systemen rond risicobeheer en compliance lijken onwerkbaar voor kleine of middelgrote ondernemingen en bedrijven. We moeten de juiste lessen trekken uit de implementatie van de AVG-regelgeving. De implementatie bracht enorme kosten met zich mee en vormde voor start- en scale-ups een grote uitdaging. We moeten vermijden dat deze nieuwe regel de toekomst van ai en de voordelen ervan beknotten’, aldus Hoedemaekers, .
Europa loopt volgens hem het risico om barrières te creëren voor ai-systemen en een competitief nadeel op te lopen ten opzichte van de rest van de wereld. ‘De vraag die we ons moeten stellen is: zal deze Europese regelgeving helpen om investeerders aan te trekken of jagen we hen weg richting Silicon Valley?’
Ai-bedrijven in België
Volgens Agoria zijn er in België meer dan vijfhonderd bedrijven actief rondom ai. Het zijn naast een aantal grote bedrijven vooral ‘start- en scale-ups’ (439):
- 255 in Vlaanderen
- 94 in Wallonië
- 88 in Brussel
De meeste bedrijven (121) hebben minder dan elf medewerkers en zijn actief op het vlak van:
- diensten (77)
- gezondheidszorg en biotech (70)
Ai voor herstelplan na corona
Hoedemaekers is niet alleen maar in mineur over het wetsvoorstel. Hij denkt dat het een goede uitgangspositie is om straks na de coronapandemie een goede herstart te maken waarin ai de samenleving en economie snel op gang kan helpen.
‘Als we dit goed aanpakken, slaan we drie vliegen in één klap. We kunnen onze competitiviteit versterken, ons dagelijks leven verbeteren én de relance (herstart red.) een duw in de rug geven. Die drie zaken hangen samen.’
Maar, er is nog veel werk aan de winkel, vindt hij. ‘Onze competitiviteit versterken we niet door enkel extra verplichtingen of controle op te leggen. De doorbraak van slimme mobiliteitsoplossingen zal er bijvoorbeeld niet komen zolang bedrijven onvoldoende vertrouwen of duidelijkheid hebben over wat wel of niet mag, waardoor ze investeringen uitstellen of zelfs definitief schrappen.’ In het ontwerp van het Belgische relanceplan staan voorlopig onvoldoende zaken over ai, verzucht hij. ‘Er is in elk geval geen tijd te verliezen, want ai zal ook bij ons kunnen helpen om efficiënter de pandemie te lijf te gaan en andere toekomstige uitdagingen aan te gaan.’
Het wetsvoorstel is voor zes weken voorgelegd aan de lidstaten. Daarna zal het nog een aantal jaren duren voordat de definitieve wet wordt ingevoerd.
Bekijk hier het ai-wetsvoorstel dat is voorgelegd aan de lidstaten.