Ai heeft grote vooruitgang geboekt in het nabootsen van empathie, maar het verschil met menselijke empathie blijft significant. Het ontleden van ai en emoties is een fascinerend gegeven dat ons inzicht biedt in hoe kunstmatige intelligentie verschilt van menselijke emoties.
Een recent en opmerkelijk onderzoek toont aan dat ChatGPT beter presteert dan artsen op het gebied van kwaliteit en empathie bij het beantwoorden van vragen van patiënten. Een team van erkende zorgprofessionals vergeleek de antwoorden van artsen met die van de chatbot op vragen die publiekelijk waren gesteld door patiënten op een openbaar platform. In dit dwarsdoorsnedeonderzoek werden 195 willekeurig gekozen vragen van patiënten geanalyseerd. De chatbot-antwoorden werden boven de antwoorden van artsen verkozen en scoorden significant hoger op zowel kwaliteit als empathie. Deze bevindingen, gepubliceerd in Jama Internal Medicine, zijn het resultaat van de samenwerking tussen onderzoekers van de University of California San Diego, Johns Hopkins University en het Bryn Mawr College. Tevens wijzen zij op de potentie van ai om menselijke interacties te verbeteren, maar benadrukken ook de noodzaak om de risico’s en uitdagingen nauwlettend in de gaten te houden
Ai heeft enorme stappen gemaakt in het begrijpen en genereren van menselijke taal. Bijvoorbeeld ChatGPT kan op een goede manier praten, maar er is iets wat het nog niet kan: empathie. Empathie betekent dat je kunt begrijpen hoe anderen zich voelen en met hen mee kunt voelen, en dat is belangrijk in menselijk gedrag.
Alhoewel ai empathie kan nabootsen, is het geen echte empathie. Ai heeft geen bewustzijn zoals mensen, voelt geen emoties en heeft geen persoonlijke ervaringen. Het begrijpt onze gevoelens niet op een dieper niveau en voelt geen écht medeleven. Ai reageert gewoon op basis van wat het heeft geleerd uit gegevens en patronen, zonder gevoelens of betrokkenheid te hebben. Het ontleden van ai en emoties is een fascinerend iets dat ons inzicht geeft in hoe kunstmatige intelligentie verschilt van menselijke emoties.
Gesprek
Een reden waarom ai het moeilijk vindt om empathisch te zijn, is omdat het geen eigen gevoelens heeft zoals mensen dat wel hebben. Ai kan woorden begrijpen en zinnen maken, maar het begrijpt niet echt hoe emoties werken. Ai heeft geen eigen emoties. Hierdoor kan ai geen diepe emotionele connectie maken met anderen zoals mensen dat kunnen.
Stel je het volgende gesprek voor tussen een mens en ai:
Mens: ‘Ik voel me zo verdrietig vandaag. Mijn beste vriendin heeft me in de steek gelaten en ik voel me echt alleen.’
Ai-chatbot: ‘Oh nee, dat klinkt als een moeilijke situatie. Het spijt me dat je je zo voelt. Ik kan niet echt begrijpen hoe emoties werken, maar ik ben hier om naar je te luisteren en te proberen je te helpen.’
Mens: ‘Het voelt gewoon alsof niemand begrijpt wat ik doormaak.’
Ai-chatbot: ‘Ik begrijp dat het frustrerend kan zijn als anderen je gevoelens niet begrijpen. Het is oké om je verdrietig en alleen te voelen. Misschien helpt het om met iemand te praten die je vertrouwt over wat er gebeurd is.’
Mens: ‘Ja, dat is een goed idee. Het voelt gewoon zo rot op dit moment.’
Ai-chatbot: ‘Ik begrijp dat je je rot voelt. Het is normaal om je zo te voelen als er iets vervelends gebeurt. Ik hoop dat praten met iemand je kan helpen om je beter te voelen.’
Mens: ‘Dank je wel voor het luisteren, ook al ben je geen echt persoon.’
Ai-chatbot: ‘Graag gedaan! Hoewel ik geen mens ben, ben ik hier om naar je te luisteren en je te steunen. Als je nog meer wilt praten, ben ik altijd beschikbaar.’
Hoewel de ai-chatbot enige empathische elementen etaleert, herinnert dit gesprek ons eraan dat empathie een unieke menselijke eigenschap is die voortkomt uit onze eigen emoties en levenservaringen.
Context
Empathie gaat verder dan alleen het begrijpen van de woorden die worden uitgewisseld. Het omvat ook het begrijpen van de context waarin een persoon zich bevindt, zoals culturele achtergrond, persoonlijke geschiedenis en non-verbale signalen. Ai-systemen hebben echter alleen toegang tot de informatie waarop ze zijn getraind en missen de externe ervaring en algemene kennis die mensen hebben. Dit beperkt hun vermogen om empathie te tonen, omdat ze geen toegang hebben tot de contextuele informatie die cruciaal is voor empathisch denken en handelen. Het kan ook resulteren in ongepaste of letterlijke reacties op grapjes.
Mens: ‘Waarom stak de kip de weg over?’
Ai-chatbot: ‘Om aan de overkant te komen.’
In dit voorbeeld begrijpt de ai de humor achter de vraag niet en geeft het een letterlijk antwoord.
Mens: ‘Geweldig, mijn computer is weer vastgelopen!’
Ai-chatbot: ‘Dat is fantastisch om te horen!’
De ai-chatbot begrijpt niet dat de gebruiker gefrustreerd is en een sarcastische opmerking maakt.
Mens: ‘Ik voel me echt gestrest en angstig.’
Ai-chatbot: ‘Het spijt me te horen dat je je zo voelt. Probeer eens wat diepe ademhalingsoefeningen te doen om te ontspannen.’
De ai-chatbot kan niet inschatten hoe gestrest de gebruiker werkelijk is, omdat het geen fysieke signalen kan observeren, zoals versnelde ademhaling of lichaamstaal.
Hoewel ai-systemen zoals ChatGPT indrukwekkende prestaties leveren op het gebied van menselijke taal, blijft empathie een uitdaging. Het gebrek aan subjectieve ervaring, contextueel begrip en emotionele intelligentie maakt het moeilijk, zo niet onmogelijk, voor ai om op dezelfde manier empathisch te denken en te handelen als mensen dat doen.
Het artikel ‘Emotional AI Is No Substitute for Empathy‘ geschreven door Pragya Agarwal, gedrags- en datawetenschapper, gepubliceerd in 2022, biedt een boeiend overzicht van de opkomst van emotionele ai-technologie in 2023. De auteur belicht hoe techbedrijven zich richten op de ontwikkeling van geavanceerde chatbots die menselijke emoties kunnen nabootsen om empathische verbindingen met gebruikers te creëren. Dit heeft veelbelovende toepassingen in diverse sectoren, waaronder gezondheidszorg en onderwijs, waar het interacties met gebruikers kan verbeteren en tijd kan besparen voor medisch personeel.
Het artikel benadrukt ook enkele zorgwekkende aspecten. Het wijst op de gebrekkige wetenschappelijke basis achter emotionele ai-algoritmen, die vaak de sociale en culturele context van emoties niet volledig kunnen begrijpen. Hierdoor kunnen ze verkeerde interpretaties maken en zelfs bestaande vooroordelen en stereotypen versterken. Het artikel illustreert dit met een voorbeeld van gezichtsherkenning ai die vaker negatieve emoties toeschrijft aan zwarte individuen, zelfs wanneer ze glimlachen.
Als lezer voel ik dat het artikel een belangrijke discussie op gang brengt over de ethische en sociale implicaties van emotionele ai-technologie. Het benadrukt het belang van zorgvuldig onderzoek en evaluatie om negatieve gevolgen te voorkomen en te zorgen voor een verantwoorde ontwikkeling en implementatie. Het herinnert ons eraan dat technologische vooruitgang en innovatie gepaard moeten gaan met ethisch bewustzijn en het vermogen om bestaande ongelijkheden niet te versterken.
Morele besluitvorming
Empathie speelt een essentiële rol bij morele besluitvorming om ervoor te zorgen dat beslissingen ethisch en rechtvaardig blijven. Het is een drijvende kracht achter creativiteit en innovatie. Door ons in te leven in de behoeften en uitdagingen van anderen, kunnen we oplossingen vinden die echt relevant en waardevol zijn.
Met een ode aan de onvervangbare menselijke emotie, willen we empathie als ons kostbare erfgoed behouden, vooral in deze tijd van technologische vooruitgang.
Neem liever een hond, die geeft echte empathie.
Jammer dat in het wedstrijdje tussen artsen en ai niet gekeken is wat de score zou zijn wanneer de arts met hulp van ai (of andersom) de patiënt te woord zou hebben gestaan. Enig idee wie dan de winnaar zou zijn geweest? Ik denk de deelnemer genaamd Hybrid Intelligence.