Kan een computer een taal leren zoals een kind dat doet? Twee Belgische wetenschappers stellen een alternatief model voor waarin ai-agenten ‘menselijkerwijs’ een taal leren.
Een studie gepubliceerd in het toonaangevende tijdschrift Computational Linguistics door professoren Katrien Beuls (Universiteit van Namen) en Paul Van Eecke (AI-lab, Vrije Universiteit Brussel) werpt nieuw licht op genoemde vraag. De onderzoekers pleiten voor een fundamentele herziening van hoe kunstmatige intelligentie (ai) taal verwerft en verwerkt.
‘Kinderen leren hun moedertaal door in hun leefomgeving te communiceren met de mensen om hen heen. Terwijl ze spelen en met taal experimenteren, trachten ze de intenties van hun gesprekspartners te interpreteren. Zo leren ze gaandeweg om taalconstructies te begrijpen en te gebruiken. Dit proces, waarin taal verworven wordt via interactie en betekenisvolle context, vormt de kern van de menselijke taalverwerving, zegt Beuls.
‘De huidige generatie grote taalmodellen, zoals ChatGPT, leren taal op een andere manier’, vervolgt Van Eecke. ‘Door in enorme hoeveelheden tekst te gaan observeren welke woorden vaak in elkaars buurt voorkomen, leren ze teksten te genereren die vaak niet van menselijke teksten te onderscheiden zijn. Dit leidt tot modellen die krachtig zijn in vele vormen van tekstgeneratie, van het samenvatten of vertalen van teksten tot het beantwoorden van vragen, maar die tegelijkertijd een aantal inherente beperkingen vertonen.’ Van Eecke noemt een aantal voorbeelden. Zo zijn deze modellen vatbaar voor hallucinaties en vooroordelen en hebben ze vaak moeite met menselijke redeneervormen. Ook zijn enorme hoeveelheden data en energie nodig om ze te bouwen en te gebruiken.
Taal leren in de leefomgeving
De onderzoekers stellen een alternatief model voor waarin ai-agenten taal leren zoals mensen dat doen: door in hun leefomgeving deel te nemen aan betekenisvolle communicatieve interacties. In een reeks experimenten laten ze zien hoe deze agenten taalconstructies ontwikkelen die direct gekoppeld zijn aan hun omgeving en sensorische waarnemingen. Dit leidt tot taalmodellen die:
- Minder vatbaar zijn voor hallucinaties en vooroordelen omdat hun taalbegrip gebaseerd is op directe interactie met de wereld;
- Efficiënter omgaan met data en energie, waardoor ze een kleinere ecologische voetafdruk nalaten;
- Sterker geworteld zijn in betekenis en intentie, waardoor ze op een meer menselijke manier taal en context begrijpen.
‘Het integreren van communicatieve en gesitueerde interacties in ai-modellen is een cruciale stap in de ontwikkeling van de volgende generatie taalmodellen. Dit onderzoek biedt een veelbelovende weg naar taaltechnologieën die dichter aanleunen bij hoe mensen taal begrijpen en gebruiken’, besluiten de onderzoekers.
Katrien Beuls & Paul Van Eecke, Humans Learn Language from Situated Communicative Interactions. What about Machines?, in: Computational Linguistics 2024, 50 (4): 1277–1311.
Ze stellen een alternatief model voor die leert zoals mensen dat leren, maar komen niet met een voorbeeld want ze weten niet hoe. Als iemand dat wist dan had men dat natuurlijk allang gedaan! Dit is dus een onzinnig artikel.
Daarnaast ben ik er niet van overtuigd dat de huidige taalmodellen geen intelligentie bevatten. Hun output is te complex om te verklaren met “ik zoek het dichtstbijzijnde woord wat erbij past”. Daarnaast is er niet een goede definitie van intelligentie.
Beste Keuterboertje, ik kan me levendig voorstellen dat je je moeite hebt met deze ontwikkelingen. Het is een ingewikkelde materie en filosofisch ook niet simpel. Maar ik verzeker je, dit artikel is zeer zeker niet onzinnig.
Dat idee om een machine taal te laten leren als een mens is op zichzelf niet nieuw, het werd al decennia geleden bedacht. De truc is dat wij mensen de klanken van de taal verbinden (via onze neuronen) met andere sensorische indrukken (tastzin, gezicht, bloeddruk, maagpijn, zon op je gezicht, enz, enz). De verwerking daarvan ligt deels vast in onze genen, al tig miljoenen jaren (niet alleen zoogdieren kunnen verbanden leggen en taal leren).
Vroeger konden we het niet bij benadering simuleren op machines, maar tegenwoordig worden de computers steeds krachtiger, de mogelijkheden zijn steeds beter.
“Het dichtstbijzijnde woord” is natuurlijk slechts een indicatie van hoe het werkt. In een artikel als dit is het niet mogelijk eventjes de hele theorie en praktijk achter neuronale netwerken uit te leggen. Als je echt een oordeel wilt vellen over hoe hedendaagse kunstmatige “intelligentie” werkt, zou je toch echt je wat dieper moeten orienteren op dit vakgebied. Er is literatuur genoeg, op allerlei niveaus.
Nog even een plagerijtje: kun je uit deze tekst 100% zeker afleiden of ik een mens of een robot ben?
Romke, mooi hoe je met een zeer zinnige opmerking precies het gelijk van Keuterboertje aantoont.
Je opmerking dat taal in de eerste plaats klank is spreekt mij (letterlijk) zeer aan.
Een belangrijke eigenschap van klank is resonantie en al enkele maanden geleden vroeg ik ChatGPT welke filosofen hierover hebben nagedacht. Toen kreeg ik het volgende rijtje: 1. Sartre 2. Heidegger 3. Marcel 4. Merleau-Ponty 5. Ricoeur.
LLM’s werken niet met resonantie; wel met associatie.
Maar wat LLM’s verder ontberen is het menselijk lichaam, waardoor ze zaken niet kunnen begrijpen zoals mensen doen. Op dit punt is het denken van Merleau-Ponty overigens zeer van belang.
Ieder mens begrijpt direct dat een spijker in hout wordt geslagen met een hamer en niet met een balpen (of wat anders). Op die manier kan een LLM dat niet begrijpen.
Verder ben ik het beslist met Keuterboertje eens dat LLM’s al intelligentie bevatten (waardoor dus terecht van kunstmatige intelligentie kan worden gesproken).
Er zijn alleen nog wat verdwaalde architecten die dat ontkennen:
https://www.computable.nl/2022/12/31/chatgpt-geen-doorbraak-maar-doodlopende-weg/