Het balanceren tussen ai-innovatie en de bijbehorende regulering is zowel van vitaal belang als een uitdagende opgave. Aan de ene kant opent ai mogelijkheden voor vooruitgang in diverse sectoren, van gezondheidszorg tot transport. Aan de andere kant brengt dit ethische, sociale en juridische vraagstukken met zich mee. Waar ligt de grens? Op welk punt is aangepaste regulering nodig om veiligheid, privacy en een verantwoord en toegankelijk landschap te waarborgen?
De prognoses tonen aan dat de ai-markt de komende jaren zal blijven groeien. In 2022 bedroeg de omzet ongeveer veertig miljard dollar en tegen 2032 wordt een groei naar zo’n 1,2 biljoen euro verwacht. De investeringen in het trainen van zelflerende ai-modellen zullen naar schatting stijgen tot 247 miljard dollar in 2032. De prangende vraag is of deze groei kan doorgaan met het huidige tempo van de wet- en regelgeving of dat snellere en strengere regulering noodzakelijk is. Hoe kunnen we regulatie waarborgen zonder de voortgang van innovatie te belemmeren?
Het belang van regulatie binnen het domein van ai draait om het creëren van een landschap dat niet alleen transparant en veilig is, maar ook eerlijk en toegankelijk voor iedereen. Het is cruciaal om de waarde van regulatie te begrijpen; het vormt de basis van een verantwoordelijke omgeving waarin de vruchten van ai voor iedereen toegankelijk zijn. Zonder gepaste regulatie bestaat het risico dat dit potentieel negatief wordt benut, met mogelijke gevolgen zoals verlies van privacy, toenemende ongelijkheid en zelfs bedreigingen voor de menselijke autonomie en veiligheid. Het is dan ook van groot belang dat wetgevers, beleidsmakers en ai-experts samenwerken om regels en normen vast te stellen die de ethiek, veiligheid, transparantie en verantwoordelijkheid waarborgen.
Gedeelde verantwoordelijkheid
Op 14 juni 2023 hebben Europarlementariërs de onderhandelingspositie van het Parlement over de ai-wet aangenomen. De gesprekken met EU-landen in de Raad over de uiteindelijke vorm van de wet zijn in volle gang. Het doel is om tegen het einde van dit jaar tot een akkoord te komen.
De EU richt zich op excellentie en vertrouwen, met als doel de onderzoeks- en industriële capaciteit te vergroten en tegelijkertijd de veiligheid en de grondrechten te waarborgen. Het maximaliseren van middelen en het coördineren van investeringen is een cruciaal onderdeel van ai-excellentie. Via de programma’s Horizon Europa en Digitaal Europa is de Commissie van plan om jaarlijks 1 miljard euro in ai te investeren. De faciliteit voor herstel en veerkracht stelt 134 miljard euro beschikbaar voor digitaal. Aan investeringen geen gebrek, maar regulering brengt grote uitdagingen met zich mee.
Een uitdaging bij het reguleren van ai is de snelheid van technologische vooruitgang. Wetten kunnen verouderd raken of niet voldoende flexibel zijn om de snelle veranderingen in de ai-technologie bij te houden. Daarom is het van belang om regelmatig herzieningen door te voeren en mechanismen in te bouwen die kunnen evolueren naarmate de technologie vordert. Een andere uitdaging bij regulatie is het creëren van een internationale consensus over normen en richtlijnen voor ai, gezien de grensoverschrijdende aard ervan. Dit vereist overeenkomsten tussen landen om consistente normen vast te stellen die wereldwijd gelden, ondanks de diverse culturele, juridische en ethische verschillen tussen landen.
Verantwoordelijkheid is een gedeelde last: overheden moeten duidelijke en rechtvaardige richtlijnen vaststellen, terwijl bedrijven de leiding moeten nemen door voorbeeldgedrag te vertonen wat betreft de toepassing van ai. Het is belangrijk om te begrijpen waar we het over hebben wanneer we praten over ai. De huidige focus ligt op modellen zoals ChatGPT, maar de discussie is natuurlijk veel breder dan dit. Het begrijpen van waar we over praten is stap één bij het maken van regelgeving hierover – of het vormen van meningen erover. We zijn niet tegen het gebruik van ziekenhuisscans om afwijkingen te detecteren, maar als we het gebruiken om schadelijke inhoud te creëren of mensen te misleiden of om te kopen – dan is het een ander verhaal. Het draait dus om verantwoordelijk en aansprakelijk gebruik. Hetzelfde geldt voor de simpele hamer – je kunt het gebruiken om een spijker te slaan of om iemand op de vingers te tikken. Geef je de hamer vervolgens de schuld?
Techneuten dragen ook een enorme verantwoordelijkheid als het gaat om het waarborgen van toegankelijkheid en het verantwoord gebruik van ai. Het bevorderen van toegankelijkheid begint bij degenen die deze technologie vormgeven. Het is cruciaal om ai te ontwikkelen op een inclusieve, transparante en ethisch verantwoorde manier, zodat het potentieel van deze technologie ten goede komt aan alle lagen van de samenleving. Belangrijk is de toewijding van bedrijven om ai te benutten als een instrument ter ondersteuning en verbetering van iedereen, niet enkel als een middel voor technologische vooruitgang.
Ai-landschap
De weg naar een democratisch ai-landschap vereist een gebalanceerde aanpak: flexibele regels die innovatie stimuleren zonder in te boeten op ethische waarden en privacybescherming. Door transparantie en openheid te bevorderen, waarbij de samenleving actief betrokken wordt bij de discussie over ai-ethiek en -regulatie, kunnen we een omgeving creëren waarin innovatie gedijt terwijl ethische waarden en privacy worden gewaarborgd.
De balans tussen ai-innovatie en regulatie is een voortdurende dialoog en samenwerking tussen technologen, beleidsmakers, ethici en de bredere samenleving om een pad voorwaarts te vinden dat zowel innovatie bevordert als de menselijke waarden en belangen behartigt. Door gezamenlijke inspanningen kunnen we een omgeving creëren waarin ai democratisch wordt gepresenteerd als een krachtig hulpmiddel om de samenleving te verbeteren.
(Auteur Hans de Penning is ceo bij Neople.)