Hoe kunnen we generatieve ai, zoals ChatGPT, veiliger inzetten? Dus zonder fouten en hallucinaties die schade kunnen veroorzaken, bijvoorbeeld door feitelijke onjuistheden te presenteren? Dat bespreekt Natasha Alechina, hoogleraar Safe and Responsible AI aan de Open Universiteit, tijdens haar oratie op 1 november.
De toepassing van generatieve ai en language learning models (llm’s) wordt volgens Alechina beperkt door de risico’s die eventuele fouten kunnen teweegbrengen. Zo zouden robotvoertuigen een onaanvaardbaar ongevallenpercentage hebben en kun je menselijke piloten nog niet vervangen door zelfvliegende vliegtuigen. ‘Het probleem is dat we niet weten wat de systemen die zijn gebaseerd op leren, hebben geleerd’, meldt de wetenschapper.
Llm’s hebben de neiging om dingen te verzinnen, te hallucineren. Volgens Alechina komt dit doordat de modellen het verschil tussen waarheid en onwaarheid niet weten. Je kunt de gegenereerde content wel verifiëren, meent ze. Van een door gen-ai ontwikkeld medisch behandelplan zou je bijvoorbeeld kunnen controleren of het voldoet aan de voorgeschreven richtlijnen.
Gen-ai combineren met symbolische methoden
In haar oratie, de inaugurele rede van een nieuwe hoogleraar, pleit Alechina voor het combineren van machine learning met symbolische methoden. Deze methoden, waarbij de code werd geschreven door menselijke programmeurs, zijn veiliger en verifieerbaar. Ze onderzoekt hoe je formele verificatietechnieken kunt toepassen op door ai gegenereerde inhoud. In haar toekomstige werk hoopt zij een balans te vinden tussen de flexibiliteit van gen-ai en de nauwkeurigheid van symbolische benaderingen.
Natasha Alechina is sinds september 2023 hoogleraar Safe and Responsible AI aan de faculteit Bètawetenschappen van de Open Universiteit. Ze is ook universitair hoofddocent aan de faculteit Bètawetenschappen aan de Universiteit Utrecht, waar zij de cursus Logics for Safe Artificial Intelligence geeft binnen de master AI. Haar oratie over veiliger inzet van gen-ai vindt plaats op 1 november 2024 om 16 uur aan de Open Universiteit in Heerlen.
Language learning model en large language model
Een language learning model is een algemeen ai-model dat taal begrijpt en verwerkt, vaak beperkt tot specifieke taken. Een large language model is een grootschalig type hiervan, met honderden miljarden parameters, dat complexe taalpatronen leert en veelzijdige, mensachtige tekst kan genereren. ChatGPT(van OpenAI), Claude (van Anthropic), Llama (van Meta) en Bert (van Google) zijn voorbeelden van een large language model.