De Europese Artificial Intelligence Act (AI Act) loopt mogelijk vertraging op. Het wetsvoorstel van de Europese Commissie waarmee de lidstaten op 6 december jl. hebben ingestemd, houdt geen rekening met generatieve ai zoals ChatGPT. En uitgerekend deze ai die in een handomdraai uiteenlopende content voortbrengt, zorgt voor de meeste ophef.
Het wachten is op een akkoord binnen het Europees Parlement. Aanvankelijk leek een politiek compromis eind deze maand haalbaar. Maar ChatGPT dreigt roet in het eten te gooien. De AI Act moet bepaalde ai-toepassingen zoals social scoring en bepaald vormen van gezichtsherkenning verbieden. Bovendien komen er strikte eisen voor ai-toepassingen met een hoog risico.
En generatieve ai is niet zonder risico’s, zoals het produceren van fake news, gemanipuleerde beelden en andere vormen van desinformatie. Grote taalmodellen zijn voor een grote variëteit aan doelen in te zetten. Dan is een goede afbakening van hoog-risicoclassificaties en hoog-risicogebieden bepaald geen overbodige luxe.
De kans bestaat dus dat de Europese regelgevers terug naar de tekentafels moeten. De hamvraag is hoe de EU over generatieve ai de controle kan krijgen, stelt het Europese media-netwerk Euractiv. Binnen het Europees Parlement werken twee rapporteurs, de Italiaan Brando Benifei en de Roemeen Dragos Tudorache, aan voorstellen die tot een akkoord over de AI Act moeten leiden. Dit leidende duo stelt voor om ai-systemen die zonder menselijke tussenkomst complexe teksten voortbrengen. als ‘hoog-risico’ aan te merken. Daar is kritiek op, omdat daarmee veel volkomen ‘onschuldige’ activiteiten op de risicolijst komen te staan. Anderzijds zouden andere vormen van generatieve ai die geen teksten voortbrengen maar wel risicovol zijn, buiten de regelgeving vallen.
Mochten Benifei en Tudorache niet snel met voorstellen komen die voor het Parlement acceptabel zijn dan zou de totstandkoming van de AI Act weleens een stevige vertraging kunnen oplopen.
Mensenrechten
Nederland ondersteunt de huidige voorstellen van de Europese Commissie. De regering tilt zwaar aan de versterking van mensenrechten via de registratieplicht voor gebruikers van hoog-risic-ai, klachtrecht en het meenemen van mensenrechten in de risicoanalyse. Daarnaast hecht Nederland waarde aan de versterkte ‘regulatory sandbox’ waardoor het leerproces van ervaringen in de sandbox worden gebruikt voor betere handhaving en regelgeving. Deze aspecten moeten volgens Nederland behouden blijven tijdens de onderhandelingen met het Europees Parlement.
“…vrije uitingen van hun mening, die feitelijk niet waar hoeven te zijn om nieuwswaardig te zijn…” Alles voor de kijkcijfers denk ik dat zoiets als een opiniërende journalistiek bestaat door een belangenverstrengeling in de nieuwsvoorziening. Kijkcijfers gaan om geld want dat koopt macht en oude dilemma van Juvenalis gaat om toezicht op de macht. In dit geval de macht van Big Tech die misschien geen belang heeft in de waarheid. En waarde geven aan een versterkte ‘regulatory sandbox’ gaat om regulering welke mogelijk wringt met onze Europese juridische systemen waar de slager nog te vaak zijn/haar eigen vlees keurt:
“Het parlementarisme, ofwel de officiële toestemming om uit vijf meningen te mogen kiezen, vindt ingang onder de velen die graag de indruk wekken zelfstandig te zijn en voor hun mening willen vechten. Maar uiteindelijk is het om het even of de kudde een mening krijgt opgedrongen of dat vijf meningen zijn toegestaan.” – Friedrich Nietze (Duits filosoof)
Het is mooi dat onze regering zwaar tilt aan de versterking van mensenrechten en het meenemen van mensenrechten in de risicoanalyse alleen lijkt hoor en wederhoor me lastig bij een generatieve AI van ‘Computer says NO’ als we kijken naar risico’s in algoritmen die een zekere mate van vooringenomenheid hebben met het zelfbeeld van westerse suprematie.