Kan een computer een taal leren zoals een kind dat doet? Twee Belgische wetenschappers stellen een alternatief model voor waarin ai-agenten ‘menselijkerwijs’ een taal leren.
Een studie gepubliceerd in het toonaangevende tijdschrift Computational Linguistics door professoren Katrien Beuls (Universiteit van Namen) en Paul Van Eecke (AI-lab, Vrije Universiteit Brussel) werpt nieuw licht op genoemde vraag. De onderzoekers pleiten voor een fundamentele herziening van hoe kunstmatige intelligentie (ai) taal verwerft en verwerkt.
‘Kinderen leren hun moedertaal door in hun leefomgeving te communiceren met de mensen om hen heen. Terwijl ze spelen en met taal experimenteren, trachten ze de intenties van hun gesprekspartners te interpreteren. Zo leren ze gaandeweg om taalconstructies te begrijpen en te gebruiken. Dit proces, waarin taal verworven wordt via interactie en betekenisvolle context, vormt de kern van de menselijke taalverwerving, zegt Beuls.
‘De huidige generatie grote taalmodellen, zoals ChatGPT, leren taal op een andere manier’, vervolgt Van Eecke. ‘Door in enorme hoeveelheden tekst te gaan observeren welke woorden vaak in elkaars buurt voorkomen, leren ze teksten te genereren die vaak niet van menselijke teksten te onderscheiden zijn. Dit leidt tot modellen die krachtig zijn in vele vormen van tekstgeneratie, van het samenvatten of vertalen van teksten tot het beantwoorden van vragen, maar die tegelijkertijd een aantal inherente beperkingen vertonen.’ Van Eecke noemt een aantal voorbeelden. Zo zijn deze modellen vatbaar voor hallucinaties en vooroordelen en hebben ze vaak moeite met menselijke redeneervormen. Ook zijn enorme hoeveelheden data en energie nodig om ze te bouwen en te gebruiken.
Taal leren in de leefomgeving
De onderzoekers stellen een alternatief model voor waarin ai-agenten taal leren zoals mensen dat doen: door in hun leefomgeving deel te nemen aan betekenisvolle communicatieve interacties. In een reeks experimenten laten ze zien hoe deze agenten taalconstructies ontwikkelen die direct gekoppeld zijn aan hun omgeving en sensorische waarnemingen. Dit leidt tot taalmodellen die:
- Minder vatbaar zijn voor hallucinaties en vooroordelen omdat hun taalbegrip gebaseerd is op directe interactie met de wereld;
- Efficiënter omgaan met data en energie, waardoor ze een kleinere ecologische voetafdruk nalaten;
- Sterker geworteld zijn in betekenis en intentie, waardoor ze op een meer menselijke manier taal en context begrijpen.
‘Het integreren van communicatieve en gesitueerde interacties in ai-modellen is een cruciale stap in de ontwikkeling van de volgende generatie taalmodellen. Dit onderzoek biedt een veelbelovende weg naar taaltechnologieën die dichter aanleunen bij hoe mensen taal begrijpen en gebruiken’, besluiten de onderzoekers.
Katrien Beuls & Paul Van Eecke, Humans Learn Language from Situated Communicative Interactions. What about Machines?, in: Computational Linguistics 2024, 50 (4): 1277–1311.
Ze stellen een alternatief model voor die leert zoals mensen dat leren, maar komen niet met een voorbeeld want ze weten niet hoe. Als iemand dat wist dan had men dat natuurlijk allang gedaan! Dit is dus een onzinnig artikel.
Daarnaast ben ik er niet van overtuigd dat de huidige taalmodellen geen intelligentie bevatten. Hun output is te complex om te verklaren met “ik zoek het dichtstbijzijnde woord wat erbij past”. Daarnaast is er niet een goede definitie van intelligentie.