Het is ondoenlijk om geavanceerd ai-onderzoek per direct stil te leggen voor een periode van minimaal zes maanden. Ook onuitvoerbaar zijn voorstellen om tijdelijk te stoppen met het trainen van ai-modellen die krachtiger zijn dan GPT-4, waartoe organisaties als Future of Life hebben opgeroepen.
Rana Gujral, ceo van Behavioral Signals, vraagt zich af of het überhaupt mogelijk is om op de pauzeknop te drukken. En zo ja, hoe dat dan praktisch af te spreken en welke ai-ontwikkelingen vallen daar dan onder? De opiniemaker uit Silicon Valley uitte zijn twijfels afgelopen vrijdag in een vraag-en-antwoordsessie tijdens de TNW Conference 2023 (The Next Web) in Zaandam.
Volgens Gujral valt op zo’n tijdelijke bevriezing geen controle te houden. Een manier zou zijn om bepaalde ai-systeem tijdelijk de toegang tot de gpu’s te ontzeggen die het zware rekenwerk moeten doen. ‘Maar een belangrijk deel van het ontwikkelwerk betreft opensource waar niemand controle op kan uitoefenen,’ aldus Gujral. Bovendien zijn straks geen gpu’s meer nodig om algoritmes te trainen.
Gujral benadrukt dat elke technologie zowel ten goede als ten kwade is in te zetten. Manipulatie ligt altijd op de loer. Met ai is dat niet anders. Veel beter uitvoerbaar dan een tijdelijke bevriezing is een ‘know your customer‘-systeem naar voorbeeld van de financiële wereld. Bij elke nieuwe klant zouden ai-ontwikkelaars moeten kijken met welk doel hun software wordt aangeschaft. Als we de intentie kennen, zijn we in staat er iets aan te doen.
Inlevingsvermogen
Gujral pleitte voor meer empathische ai. Het is mogelijk ai te creëren die inlevingsvermogen vertoont door een relatie met een waardesysteem in te bouwen. De principes van wat goed en wat kwaad is, zijn namelijk aan te leren. Nog een probleem is de communicatie met ai-systemen die intelligentie vertonen, stelt Gujral. Hij zei dat met honden en katten ook moeilijk valt te communiceren door grote verschillen in intelligentie. Hetzelfde geldt voor ai-systemen. Die staan qua intelligentie zo ver van ons af dat communicatie een drempel vormt. Op komst zijn ai-systemen die in een bepaald opzicht duizend keer intelligenter zijn dan mensen. Van die systemen worden we straks afhankelijk. Gujral vindt dat die systemen emotioneel bewust moeten worden. ‘Emotion ai’ reageert op menselijke emoties, simuleert die en kan die begrijpen. Volgens hem is het riskant als hoog intelligente systemen geen emoties kunnen voelen. Hetzelfde geldt voor zeer slimme mensen zonder emoties. ‘Dat zijn psychopaten.’ waarschuwt hij.
Sarcasme
Zijn bedrijf Behavioral Signals helpt ai-systemen belangrijke elementen van menselijke emotie te herkennen en hun reacties dienovereenkomstig aan te passen. Er worden ai-systemen ontwikkeld die een depressie in de stem van een menselijke operator kunnen detecteren, kunnen reageren op verhoogde stressniveaus en de respons kunnen aanpassen.