De EU AI Act krijgt regels voor de ‘foundation models’ die aan de basis liggen van de enorme vooruitgang op gebied van ai. De Europese Commissie is het afgelopen nacht hierover eens geworden met het Europees Parlement. Vooral de regulering van nieuwe grote taalmodellen (LLM’s), zoals ChatGPT en Google Gemini alsmede andere belangrijke ai-basissystemen, was een heet hangijzer.
Volgens Europarlementariër Bart Groothuis moeten al deze modellen, dus niet alleen nieuwe versies, straks voldoen aan specifieke transparantieverplichtingen. Ze mogen in de EU pas op de markt worden gebracht als de Europese toezichthouder daar het groene licht voor geeft. Eurocommissaris Thierry Breton spreekt van een historisch akkoord.
Veel extra kosten
De EU wil precies weten welke data worden gebruikt voor de training van die modellen. Ook alle technische documentatie moet op tafel komen. OpenAI, Anthropic, Google/Deepmind en andere LLM-aanbieders moeten bij hun gebruik van data straks het Europese auteursrecht naleven. Deze verplichtingen gelden voor alle ‘foundation models’ die worden belast met het genereren van video, tekst, afbeeldingen, converseren in laterale taal of het genereren van computercode. Verwacht wordt dat deze bepalingen in de ai-verordening voor ai-bedrijven behoorlijk veel extra kosten met zich mee brengen.
Pas op het laatste moment werd overeenstemming bereikt over regulering van de foundation models. Vannacht kwam het tot een akkoord na vijftien uur onderhandelen. De dag ervoor was al bijna 24 uur lang hierover gedebatteerd. Duitsland, Frankrijk en Italië voelden aanvankelijk weinig voor het aan banden leggen van ChatGPT en soortgelijke ai-modellen.
Scraping verboden
Maar onder meer Nederland hechtte daar zwaar aan. ‘Ik ben ontzettend blij met een Europees akkoord,’ appte staatssecretaris Alexandra van Huffelen vanochtend in een eerste reactie. Scraping, waarbij beelden van internet worden gehaald voor gezichtsherkenning zoals Clearview AI, wordt verboden.
Bart Groothuis, als Europarlementariër nauw betrokken bij de EU-techregelgeving, verwacht dat het voorlopige akkoord over twee jaar na de eindstemming van kracht wordt. Al binnen zes maanden na stemming gaan de diverse verboden in. Vereisten voor ai-systemen met een hoog risico, maar ook de foundational models gaan na een jaar van toepassing worden.
Tja, en daarmee zijn de kansen voor opkomende innovatieve bedrijfjes in Europa voorgoed verkeken. Normaal werd alleen de gevestigde orde met dit soort regelgeving bediend om beschermd te worden tegen opkomende, disruptieve partijen. Tegenwoordig worden de gevestigde partijen al bijna voor ze goed en wel gevestigd zijn op hun wenken bediend. Lekker slim, Nederland. Fantastisch dat de regering zo goed over onze belangen waakt. Zelfs consumenten zijn slachtoffer van dit beleid. Voor wie doen ze dit in godsnaam? Voor iemand die anders onbetaald ermee zou moeten leven dat een paar parameters op een honderd-miljardste decimaal zouden zijn bijgesteld met zijn of haar artikel of foto? Duw Europa met je goede bedoelingen maar verder in de stront. Maar vlug 100 miljard reserveren om aan je bevriende bedrijven te geven in plaats van aan ze te verdienen, straks.
Het lijkt me niet meer dan logisch dat rechten nageleefd worden want de wild-west praktijken met AI zijn een stuitende overtreding van niet alleen het auteursrecht. De cowboys en ‘compliance’ gelden trouwens niet alleen voor AI want de mogelijkheden van moderne datasynthese zorgen steeds vaker voor Kafkëske situaties. Inzicht in de besluitvorming komt niet zonder verantwoordelijkheid als we kijken naar risico’s van: “Computer Says NO.”
Goede bedoelingen zijn leuk maar het bewijs telt en de Chain of Custody hierin is nog wel een dingetje als we kijken naar het bewijs uit het ongerijmde met moderne datasynthese.