Een internationale groep vooraanstaande (ai-)wetenschappers doet een dringend beroep op de Duitse regering om in de Europese ai-verordening regels op te nemen voor de ‘foundation models’ die aan de basis liggen van de ai-revolutie.
Samen met Frankrijk en Italië verzet Duitsland zich tegen regulering van grote taalmodellen zoals GPT-4. Kleinere landen zoals Nederland vinden dat deze ‘foundation models’ inherente risico’s met zich mee kunnen brengen. Hun standpunt is dat deze risico’s in de ai-verordening (AI Act) moeten worden geadresseerd door het stellen van proportionele verplichtingen aan aanbieders van de modellen. Maar de Duits-Franse as, gesteund door Italië, wil zelfregulering waar het om deze ‘basismodellen’ gaat.
Tot teleurstelling van de groep wetenschappers, onder wie twee winnaars van de prestigieuze Turing Award (prof. Geoffrey Hinton en prof. Yoshua Bengio), willen Duitsland en Frankrijk alleen regels voor applicaties. De wetenschappers stellen in hun open brief dat regulering van foundation models cruciaal is voor een veilig en gezond ai-ecosysteem. Ze waarschuwen ervoor op zelfregulering te vertrouwen.
Pizza
Prof. Wil van der Aalst, hoogleraar aan de Universiteit Aken en hoofdwetenschapper bij Celonis, vreest dat de EU AI Act de verkeerde kant uitgaat. ‘De prioriteiten worden verkeerd gelegd.’ Hij gebruikt de ‘pizzametafoor’ waarin ‘funderingsmodellen’ tot de pizzabodem behoren. Die modellen hebben impact en kunnen niet buiten de regulering blijven. Hij vreest dat uiteindelijk één model dominant wordt zoals dat bij de zoekmachines is gebeurd met Google Search dat een marktaandeel van meer dan negentig procent heeft. Van der Aalst: ‘Als dit met LLM gebeurt, heeft dat geweldige gevolgen voor Europa. Daarom is het van belang om minstens een gelijk speelveld te creëren.’
De wetenschappers maken zich vooral zorgen over de positie van kleine en middelgrote bedrijven die op basis van deze modellen applicaties bouwen. Ze kunnen zich geen aansprakelijkheidsrisico’s en buitensporige nalevingskosten veroorloven die voortvloeien uit een potentieel onveilig basismodel dat ze voor hun product gebruiken. Het vrijstellen van deze modellen van de ai-wet zou innovatie daarom ernstig belemmeren.
Ook vanuit veiligheidsperspectief is het van groot belang dat risico’s op het niveau van het worden aangepakt. Alleen de aanbieders van funderingsmodellen zijn in staat om de inherente risico’s ervan integraal aan te pakken. Ze hebben uitsluitend toegang tot en kennis van de trainingsgegevens van de modellen, het ontwerp van de ‘vangrail’, waarschijnlijke kwetsbaarheden en andere kerneigenschappen. Als de risico’s van funderingsmodellen niet op het niveau van het funderingsmodel worden beperkt, zullen ze niet worden gemitigeerd, waardoor mogelijk de veiligheid van miljoenen burgers in gevaar komt.
Waarom ligt het veiligheidsprincipe voor de burger niet vast in de europesche wetgeving zodat deze discussies niet eens meer plaats hoeven vinden bij nieuwe technologische innovaties en ontwikkelingen?
Ik begrijp dit niet! We weten allemaal dat alleen bij gedwongen wetgeving bedrijven, en zeker de grote multinationals, er toe overgaan rekening te houden met milieu, natuur en de gezondheid van de bevolking. Uit zichzelf zullen ze dat niet doen en staat alleen de winst die ze kunnen maken voorop. En onze eigen overheid notabene ziet oogluikend toe dat de complete bevolking zonder het “de burger en zijn welzijn c.q. gezondheid en veiligheid eerst” principe ter wille van de economische belangen, lees winst, compleet wordt vergiftigd en/of in gevaar wordt gebracht! Het gaat mijn pet te boven.