De discussie over de gevaren van artificiële intelligentie (ai) wordt gekaapt door de ontwikkelaars van deze technologie en bedrijven die daarvan financieel profiteren. In plaats op superintelligentie moet de focus liggen op de bestaande gevaren van ai voor mens en planeet, vindt Roel Dobbe, universitair docent aan TU Delft.
De existentiële gevaren zijn te belangrijk om aan Big Tech over te laten, en vragen volgens Dobbe om breed eigenaarschap over standaarden bij partijen in de politiek, bedrijfsleven en samenleving. De universitair docent werkt al meer dan tien jaar in het vakgebied systeem- en regeltechniek. Of beter, op het grensvlak van engineering, ai en maatschappelijke implicaties. Sinds drie jaar bij Technische Bestuurskunde aan de TU Delft, waar hij de integratie van ai in kritieke processen bestudeert en helpt vorm te geven met andere disciplines uit de sociale wetenschappen en geesteswetenschappen. Hij put hierbij uit decennia aan lessen en inzichten uit de systeemveiligheid, waarmee hij tools ontwikkelt om veiligheid, rechtvaardigheid en duurzaamheid te borgen in de toepassing van data-gedreven en algoritmische systemen.
In de loop der jaren heeft hij op het onderwerp een sterk netwerk opgebouwd in de Verenigde Staten van personen die leidend zijn in kunstmatige intelligentie. ‘Sinds 2015 hebben wij een bredere kijk op de maatschappelijke impact van ai; eerst met promovendi in Berkeley en daarna aan het Ai Now Institute in New York dat ik heb helpen opbouwen.’
Hypocriet
Computable spreekt met Dobbe naar aanleiding van de LinkedIn-discussie die ontstond na het vertrek van Geoffrey Hinton bij Google. Hinton staat bekend als één van de drie ‘Godfathers of ai’. Hij vertrok om vrijuit te kunnen spreken over de gevaren van ai.
Dobbe vindt de houding van Hinton hypocriet. Hij verwijst naar Timnit Gebru, een zwarte vrouw en computerwetenschapper en voormalig ethisch ai-onderzoeker bij Google. Twee jaar geleden deelden zij en haar collega’s zorgen over de gevaren van grote ai-modellen. Zij werd ontslagen. Haar toenmalige collega Hinton sprak zich destijds niet uit over de gevaren van de technologie en kwam niet voor Gebru op. ‘Wat me stoort, is dat hij de gevaren die wij al jaren aankaarten kortgeleden in een interview met CNN diskwalificeerde als ‘niet zo existentieel als mijn zorgen over superintelligentie’. Er wordt stelselmatig nadruk gelegd op scenario’s waarin ai-technologie de mens voorbijstreeft, waardoor we de controle zouden verliezen en er levensgevaarlijke scenario’s ontstaan, vergelijkbaar met kernwapens.’
Dobbe heeft deze retoriek eerder zien opduiken. ‘Het creëert angst onder bevolking en beleidsmakers en is uiterst lucratief voor de onderzoekers die het veld leiden en zeggen hun eigen fouten te willen herstellen, onder het motto ‘de huidige ai is gevaarlijk, dus geef ons meer geld om veiligere versies te maken, wij weten hoe het werkt’. Hinton doet hetzelfde: er zijn problemen met ai, maar wij lossen het op.
Hij zegt letterlijk dat je niet moet luisteren naar degenen die al jaren roepen dat de technologie inherent gevaarlijk.’
Moedwillig blind
Ook Dobbe heeft zorgen over ai. ‘Het punt is alleen dat bestaande existentiële gevaren door de huidige retoriek worden genegeerd. Daarbij gaat het om de kolossale impact van ai-systemen en hun computerinfrastructuur op het milieu en de energietransitie, de marginalisatie en het misbruik van minderheidstalen in taalmodellen, de toepassing van ai in verkiezingsbeïnvloeding, en de immorele uitbuiting van goedkope arbeid voor het labelen van data en trainen van ai-modellen, waardoor grote aantallen onderbetaalde werknemers, vaak in voormalige koloniën, psychische en emotionele schade oplopen’, somt hij op. Om eraan toe te voegen dat Hinton zich in zijn loopbaan bij Google niets gelegen heeft laten liggen aan al die negatieve effecten van ai. ‘Hij verschuilt zich achter een kleingeestig argument dat hij de schadelijke gevolgen van ai niet kon zien aankomen. Maar laat je niet misleiden, zijn afwijzing van ons werk dat de werkelijke politieke, menselijke en milieueffecten van ai-systemen al jaren aantoont, vertelt ons dat hij moedwillig blind was en blijft.’
Complexe software
Dobbe meent dat de discussie niet moet gaan over superintelligentie maar over de veilige toepassing van ai voor het gezond gebruik van technologie in ons dagelijkse leven, en voor de inrichting van de publieke ruimte, de democratie en het bestuur, indachtig hoe vreselijk fout het is gegaan met het Toeslagenaffaire. ‘Machines kunnen op steeds meer taken uitzonderlijk presteren en nieuwe functionaliteit bieden. Dat is onvermijdelijk. Echter worden ChatGPT en andere generatieve ai-systemen zo complex dat niemand meer begrijpt hoe ze werken en hoe fouten ontstaan. Dat is geen nieuw probleem. We weten al veel langer dat te complexe software leidt tot nieuwe veiligheidsrisico’s, onder andere vanuit de lucht- en ruimtevaart. Dit probleem speelt ook in de uitvoering bij de overheid voor simpelere algoritmes en automatisering.’
In plaats van ai te zien als ‘superintelligentie’ en de risico’s en verantwoordelijkheden aan de technologie toe te schrijven, benadrukt Dobbe dat veiligheidsrisico’s van ai alleen zijn te begrijpen en voorkomen door te kijken naar hoe een ai-functie wordt geïntegreerd in een specifiek proces en context, hoe het wordt gebruikt, hoe het wordt gemanaged en onderhouden, en wat voor regulering van toepassing is. ‘Ook cultuur en gedrag van gebruikers, ontwikkelaars, managers, wetgevers en toezichthouders spelen daarbij een cruciale rol weten we uit de geschiedenis van software-gebaseerde automatisering.’
Menselijke controle
Dobbe meent dat we onze vitale systemen dusdanig moeten inrichten dat er menselijke controle blijft en we onze processen kunnen blijven aanpassen om zo ook op schadelijke impact actief te anticiperen en liefst te voorkomen. ‘We zijn nu vaak al te afhankelijk van big tech software infrastructuur in onze vitale instellingen, waardoor het vormgeven en grip houden op processen nu al moeilijk is. Zie wat er bij de Belastingdienst gebeurt. Daarom kunnen we het discours rond de risico’s van ai niet overlaten aan technologiebedrijven. Die zetten de technologie weg als ‘superintelligent’ om beleidsmakers en bestuurders zand in de ogen te strooien dat de adoptie onontkoombaar is en dat zij zelf het best kunnen bepalen hoe we het moeten reguleren. Op termijn schaadt dat het vermogen om te innoveren en grip te houden enkel nog verder.’
Normen en standaarden
Ai gaat niet meer weg, stelt Dobbe. ‘We hebben normen en standaarden nodig om er maatschappelijk bewust mee om te gaan. Dat is een complex vraagstuk, waarvoor we tijd moeten nemen. Om te beschouwen welke toepassingen zinvol kunnen zijn en wat voor nieuwe normen we nodig hebben om de technologie veilig, rechtvaardig en op duurzame wijze in te passen. Daarvoor moet je met de juiste partijen aan tafel. Wij zitten nu op een kantelpunt. De politiek moet het voortouw nemen en investeren in het vermogen zelf infrastructuur te bouwen en standaarden collectief vorm te geven.’
Hij vindt overigens dat Nederland het goede voorbeeld geeft en een proactieve houding aanneemt. Ook is hij te spreken over Alexandra van Huffelen, staatssecretaris Koninkrijksrelaties en Digitalisering. En ook de Tweede Kamer wordt wakker. ‘Er leven zorgen binnen het Nederlandse parlement over het gebruik van kunstmatige intelligentie. Er worden veel vragen gesteld. Van Huffelens ambtenaren zijn overvraagd en komen maar weinig toe aan hun werk: beleidsontwikkeling.’ Ook de Europese Commissie roert zich danig. ‘Het is bijna niet meer bij te houden hoeveel acts er zijn om digitalisering in goede banen te leiden en de afhankelijkheid van Big Tech aan banden te leggen.’
Bij dit alles moeten we volgens hem niet vergeten dat ai veel goeds kan brengen. ‘Bijvoorbeeld op medisch gebied of in de energietransitie. Maar we moeten er wel voor zorgen dat de arts de controle houdt over de technologie. En dat ziekenhuizen en netbeheerders in staat zijn hun eigen tools te ontwikkelen en te laten certificeren en toetsen langs betekenisvolle normen en standaarden – niet enkel wat door grote industriepartijen wordt voorgesteld. En dat geldt voor elk ander maatschappelijk veld.’
Bedankt voor de fantastische link. Dat wordt wel even studeren (en bidden dat de wiskunde een beetje te begrijpen is). Beniewd wat wat er dan fysiek in het datamodel van een LLM gebeurt. Een soort dementie zonder materiële deformatie. Misschien hebben mensen hier ook wel last van als een soort omgekeerd leerproces. Wie weet komen we op het spoor van geestelijk functionele uitval zonder verandering in de hersenen die als fysieke deformatie aangemerkt zou kunnen of moeten worden. 🙂