De gezichtsuitdrukking en kijkrichting van sociale robots zijn onmisbaar voor de interactie met mensen. Dat stelt robotica-onderzoeker van de Radboud Universiteit Chinmaya Mishra. De promovendus ontwikkelde een algoritme en een taalmodel die de communicatie tussen mensen en sociale robots moeten verbeteren.
In de zorg, de detailhandel en het onderwijs duiken steeds vaker sociale robots op. Die zijn, anders dan industriële robots, specifiek bedoeld om interactie te hebben met mensen. Door de snelle ontwikkelingen in kunstmatige intelligentie en robottechnologie zullen die sociale robots steeds vaker worden ingezet, verwacht Mishra. De onderzoeker die 17 april promoveert, bekeek het belang van kijkrichting en menselijke emoties in onze communicatie met robots en ontwikkelde twee systemen om het gezicht van robots in ons voordeel te laten werken. Mishra: ‘We willen dat sociale robots, zoals een persoonlijke assistent, zich gedragen zoals we dat in onze samenleving verwachten. Om ons leven te vergemakkelijken, moeten robots zo gemaakt worden dat ze passen bij onze manier van communiceren.’
Het gezicht van robots speelt daarin een grote rol, stelt hij. ‘Dat is door veel ontwikkelaars genegeerd, omdat het erg lastig is om een robotgezicht hetzelfde te laten doen als dat van een mens. Met name oogcontact, kijkrichting en gezichtsuitdrukking zijn cruciaal in menselijke communicatie’, doceert hij. Als voorbeeld noemt de onderzoeker een sociale robot die mensen moet ontvangen in een ziekenhuis. ‘Die zou bijvoorbeeld kunnen glimlachen als hij iemand doorverwijst naar de juiste ruimte, of even wegkijken als hij moet nadenken. Daardoor ontstaat een meer persoonlijke en natuurlijke interactie.’
Algoritme voor kijkrichting
Voor zijn onderzoek gebruikte de robotica-onderzoeker een Furhat-robot (zie foto bij artikel en video). Dat is een sociale robot met een op de achterkant geprojecteerd geanimeerd menselijk gezicht dat kan bewegen en emoties kan uitdrukken op een mensachtige manier. Hij ontwikkelde een algoritme om het kijkgedrag van de robot tijdens mens-robot-interactie te automatiseren. Het systeem werd vervolgens geëvalueerd met proefpersonen. ‘Vooral het afwenden van de blik bleek heel belangrijk’, legt Mishra uit. ‘Als we de robot lieten staren naar de deelnemer, dan begon die zich ongemakkelijk te voelen en de blik van de robot te vermijden. Als een robot niet-menselijk kijkgedrag vertoont, wordt de interactie ermee dus moeilijker.’
ChatGPT
Om de robot de juiste emoties te laten uitdrukken, maakte Mishra gebruik van de voorloper van ChatGPT (GPT-3.5). Dat ‘luisterde’ mee tijdens het gesprek, en voorspelde op basis daarvan de emotie die de robot moest tonen – zoals blij, verdrietig of verrast – die vervolgens op de Furhat-robot verscheen. De uitkomsten van een gebruikersonderzoek laten zien dat die aanpak goed werkt en dat deelnemers hoger scoren in een samenwerkingstaak met de robot wanneer die de juiste emoties uit. Ze voelen zich dan ook positiever over hun interactie met een robot. Mishra: ‘Ook dat bewijst hoezeer non-verbaal gedrag in onze hersenen zit verankerd. Een robot die emotioneel passende reacties geeft, zorgt voor een effectievere samenwerking tussen mens en robot.’
Robots hoeven niet alles te kunnen wat wij kunnen, dat is over-engineering
Uit het onderzoek komt naar voren dat passend non-verbaal gedrag onze interactie met robots vergemakkelijkt, maar dat betekent niet dat er straks levensechte, menselijke robots door de straten lopen, duidt de onderzoeker. ‘Robots zijn gereedschappen. Ze hoeven niet alles te kunnen wat wij kunnen, dat is over-engineering. Maar als ze op een vertrouwde manier met ons kunnen communiceren, hoeven wij onszelf geen nieuw communicatiegedrag aan te leren.’
Als voorbeeld noemt hij dat je kijkrichting ook zou kunnen aangeven met een pointer en een emotie kan weergeven met een kleur. ‘Maar dat is niet natuurlijk voor ons. Waarom zouden wij ons moeten aanpassen? We kunnen beter robots ontwikkelen die zich aanpassen aan wat wij kennen.’