In deze rubriek een greep uit de stroom berichten over artificial intelligence. Deze keer over het nieuwe spraakmakende redeneermodel O3 van OpenAI, ING’s ceo-onderzoek en de vertaling van de EU AI Act naar een algemene ai-gedragscode.
OpenAI’s O3 toont redeneertalent
OpenAI kondigt nieuwe ai-modellen aan die redeneerprocessen simuleren en problemen proberen op te lossen waarmee ze nooit eerder zijn geconfronteerd. Begin deze maand lanceerde OpenAI het redeneermodel O1. Afgelopen vrijdag werd opvolger O3 gepresenteerd. Een demo lichtte een tipje van de sluier op. Over het resultaat verschillen de meningen. Sommige ai-experts waren onder de indruk, anderen wat minder. Het gebrek aan een goede benchmark maakt het bovendien lastig de mate van vooruitgang te beoordelen.
Neemt niet weg dat redeneermodellen die anders dan traditionele ai-modellen niet afhankelijk zijn van patroonherkenning, volop in de belangstelling staan. Dit soort ai is erop gericht problemen stap voor stap te doordenken. Dat maakt haar interessant voor toepassing in wiskunde, wetenschap en complexe probleemoplossing.
Hamvraag is of hoe ver OpenAI met de nieuwe familie van modellen is verwijderd van artificial general intelligence. Daaronder wordt ai verstaan die net als een mens in principe elk soort probleem kan oplossen; dus ook problemen waarvoor geen trainingsdata beschikbaar zijn. Universele ai die zich in allerlei situaties beter dan de mens kan redden, bestaat nog niet.
OpenAI brengt eind januari al een miniversie van o3 mini uit. Voor de ‘grote’ o3 is nog geen releasedatum bekend. Grote nadeel van o3 is dat dit model veel uiterste prijzige rekenkracht vergt. Voorlopig lijkt de o3-familie van OpenAI nog lang geen AGI.
Ceo’s zien ai banen vervangen
Een toenemend aantal bestuurders verwacht dat ai banen gaat vervangen. Bijna twintig procent zegt dat dit zeker zal gebeuren, tegenover zes procent vorig jaar. Daarnaast denkt iets meer dan de helft dat dit misschien zal gebeuren, vergeleken met bijna veertig procent in het vorige onderzoek. Het blijkt allemaal uit het ING ceo-survey, een enquête onder de top van grote Nederlandse ondernemingen (met meer dan 250 miljoen euro omzet).
De afdelingen r&d, klantenservice, it, human resources en productie ondervinden de grootste impact. De ondervraagde topbestuurders vinden de toenemende inzet van ai de grootste zorg, maar ze zien daarin tegelijk ook een kans voor versnelling van innovatie.
In 2025 verwacht 85 procent een versnelling van innovatie, ongeveer evenveel als vorig jaar. Innovatie op het gebied van ai staat nu op nummer één, terwijl het vorig jaar nog op de derde plaats stond.
Algemene ai-gedragscode
De vertaling van de EU AI Act naar een algemene ai-gedragscode (General-Purpose AI Code of Practice, GPAI Code of Practice) met uitvoerbare maatregelen en metriek moet in april 2025 klaar zijn. De eerste van de vier ontwerp-ronden is achter de rug. Het ontwerpproces is iteratief, waarbij honderden belanghebbenden feedback geven.
De eerste commentaren uit de academische wereld zijn overwegend positief. Daarentegen willen starters en tech-investeerders zoals was te verwachten minder regels. Slechts 20 procent van de 3.500 respondenten uit een onderzoek van investeerder Atomico ziet de AI Act wel zitten. 53 procent is negatief, terwijl de rest neutraal is. Ook uit het Draghi-rapport, geschreven in opdracht van de Europese Commissie, komt de wens naar minder regels naar voren.
Daartegenover staan de voorvechters van ‘responsible ai’. De Allai (Alliance on AI), mede opgericht door ex-Europarlementariër Catelijne Muller, Virginia Dignum en Aimée van Wynberghe, vertegenwoordigt deze stroming. Deze Amsterdamse organisatie betreurt het in een commentaar dat de EU eerst sprak over een gedragscode voor trustworthy General Purpose AI (GPAI), maar het woord ‘trustworthy’ inmiddels heeft laten vallen. Muller dringt erop aan deze omissie te herstellen en te voldoen aan de drie pijlers van ‘betrouwbare ai’: rechtmatigheid, ethische afstemming en robuustheid.
Zij vindt de GPAI Codes of Practice ook te weinig aansluiten bij de regels voor ai met hoog of beperkt risico. Veel ai of ai-modellen voor algemeen gebruik worden aangewend in ai-systemen die onder de AI Act als hoog risico of beperkt risico worden beschouwd. De verantwoordelijkheid om ervoor te zorgen dat deze systemen voldoen aan deze wetgeving ligt bij de aanbieders en gebruikers van dit soort ai-systemen. Zij moeten zich houden aan regels over gegevenskwaliteit, transparantie, menselijk toezicht en nauwkeurigheid.
Omdat deze regels vaak technisch zijn, moet naleving meestal plaatsvinden op het niveau van het GPAI-model (dat een groot taalmodel omvat). Als de praktijkcodes voor GPAI-modellen niet voldoen aan de vereisten voor ai met hoog risico, kan dit het gebruik van GPAI-systemen beperken en de ai-innovatiekracht concentreren bij de ‘grote’ GPAI-ontwikkelaars. Daarom vereist de AI Act dat de GPAI Codes of Practice aansluiten bij de regels voor ai met hoog risico en beperkt risico om te voorkomen dat innovatie wordt onderdrukt, aldus Muller.