Is ai de transformatieve technologie die op verschillende gebieden wonderen gaat verrichten voor de mensheid, van zelfrijdende auto's tot een geneesmiddel voor kanker? Of is het een geest in een fles die als hij wordt vrijgelaten, is in te zetten als manipulatiemiddel?
Dit zijn niet langer alleen theoretische vragen. Met de vooruitgang die de afgelopen tien jaar is geboekt op het gebied van rekenkracht, software en de cloud, is de vooruitgang op het gebied van ai niet lineair, maar exponentieel.
Dat betekent dat het tijd is om enkele fundamentele beslissingen te nemen. Net als bij privacy en de AVG/GDPR neemt de Europese Unie het voortouw voor regulering om het enorme potentieel van ai te benutten en te kapitaliseren. Het voorstel van de EU is logisch, omdat het is ontworpen om het potentieel te optimaliseren en ai-risico’s te minimaliseren.
Op dit moment onderzoekt elke vooruitstrevende organisatie wereldwijd hoe ai is te gebruiken. Ze kunnen het zich niet veroorloven de kansen te missen die ai biedt. Maar ze kunnen het zich tegelijkertijd niet veroorloven om moreel onjuist te handelen, fouten te maken die hun bedrijf in gevaar kunnen brengen of anderen schade kunnen berokkenen.
Verder gaan dan menselijke intelligentie
Hoe meer ervaring een radioloog heeft, hoe groter de kans dat hij die verdachte knobbel die de arts heeft gevonden nauwkeurig kan diagnosticeren. Maar stel je eens voor dat in plaats met alleen de duizenden afbeeldingen die de radioloog heeft onderzocht, de knobbel is te vergelijken met miljoenen afbeeldingen, die allemaal honderd procent accuraat worden onthouden, om de diagnose vast te stellen? Bovendien zou de radioloog niet alleen de beelden hebben, maar ook beschikken over kennis uit elk wetenschappelijk artikel dat ooit over het onderwerp is gepubliceerd, ontleed en gefilterd om de diagnose te onderbouwen. Dat is de belofte van ai. Neem deze analogie en pas het toe op elk gebied, elk specialisme, elk menselijk kennisprobleem. Het opwaartse potentieel is enorm.
Doemscenario’s voor ai
De dialoog uit de film 2001: A Space Odyssey – tussen computer HAL (IBM minus 1) en de bemanningslid Dave – verwijst naar misschien wel het ultieme ai-doemscenario:
‘Open de deuren van de pod, HAL.’
‘Het spijt me, Dave, ik ben bang dat ik dat niet kan doen… Deze missie is te belangrijk voor mij om je toe te staan haar in gevaar te brengen.’
De machines nemen het over en mensen kunnen ze niet stoppen. Dit idee heeft ertoe geleid dat sommige visionairs alarm slaan en ervoor pleiten om de pauzeknop voor ai in te drukken. Natuurlijk zijn er naast dat de computers het overnemen talloze negatieve scenario’s. Vooroordelen met betrekking tot ras, geslacht en op andere gebieden zijn een plaag voor ai-algoritmen. Doordat mensen ze programmeren, zijn algoritmen onderhevig aan menselijke vooroordelen, beperkingen en slechte bedoelingen.
En we weten dat mensen schrikbarend gemakkelijk te beïnvloeden zijn. Leer een beetje over het gedrag en de interesses van een individu of groep en je hebt een handleiding om hun gedachten en acties te manipuleren. We hebben al bewijs gezien van landen die experimenteren om het gedrag van de bevolking en de verkiezingsresultaten te beïnvloeden. Ai kan deze manipulaties op grote schaal mogelijk maken.
Vladimir Poetin zei het volgende over ai: ‘Wie de leider wordt op dit gebied, zal de heerser van de wereld worden.’ Van dit idee zouden we ’s nachts wakker moeten liggen.
Fundamentele mensenrechten zijn een duidelijke zorg. Ai kan worden gebruikt voor vervolging en repressie – het gebruik van gezichtsherkenning kan bijvoorbeeld worden gebruikt om individuen te onderscheiden om iedere reden die een autoriteit nodig acht.
De grootste zorg is echter wat er gebeurt als ai het punt bereikt waarop het zichzelf kan verbeteren. Vanaf dan zal het wellicht niet zo lang duren totdat we artificial general intelligence (agi) – de heilige graal van ai – hebben bereikt. Hiermee is ai in staat elke intellectuele taak te begrijpen en te leren zoals een menselijk brein dat kan. Daarna begint het zichzelf te ontwerpen, beslissingen te nemen op basis van zijn eigen parameters, volgt het zijn eigen ‘ai-drives’ zal het onverwachte richtingen inslaan – weigerend om de deuren van de pod te openen. In dat geval zouden we te maken kunnen krijgen met grote problemen, dus het is logisch om nu te beginnen met het nemen van passende maatregelen.
Evenwichtige benadering van ai-regelgeving
We kunnen ai niet ongecontroleerd laten verder gaan op zijn eigen pad van zelfcreatie. Ook kunnen we er niet op vertrouwen dat alle mensen of de entiteiten die zij controleren, andere belangen dan die van henzelf behartigen. De voorgestelde EU-verordening pleit ervoor dat ai-systemen met een hoog risico voldoen aan specifieke eisen met betrekking tot datasets, documentatie, transparantie en menselijk toezicht. Het zou toepassingen verbieden die in strijd zijn met de EU-waarden of fundamentele mensenrechten, inclusief systemen die het gedrag van een individu bepalen door middel van subliminale technieken of door misbruik te maken van kwetsbaarheden. De verordening stelt verder voor het realtime-gebruik van biometrische identificatiesystemen zoals gezichtsherkenning, door instanties voor rechtshandhaving in openbaar toegankelijke ruimtes te verbieden. Behalve in specifieke gevallen van misdaad of terrorisme.
Dit zijn slechts enkele belangrijke punten. Het voorstel lijkt redelijk gezien de potentiële gevaren en het feit dat we het besluitvormingsproces van ai niet altijd begrijpen en het een soort zwarte doos is. Wat de verordening niet dekt, is net zo belangrijk. Veel toepassingen van ai zijn slechts onderworpen aan minimale transparantievereisten, bijvoorbeeld chatbots, systemen voor het herkennen van emoties of deep fakes.
Dit is een verstandige, tweeledige benadering die bescherming en stimulans in evenwicht houdt. Het laat veel ruimte voor innovatie en biedt tegelijkertijd essentiële basisbescherming. Hopelijk zullen andere landen, waaronder Amerika – dat momenteel alleen op lokaal niveau een lappendeken van ai-regelgeving heeft – het voorbeeld van de EU volgen.
Wat betekent dit voor bedrijven?
Bij zakelijke beslissingen wordt niet altijd rekening gehouden met mogelijke schade aan mensen. Maar met ai moeten mensen vragen stellen als:
- Hebben we ai echt nodig? Je hebt geen handgranaat nodig om een mug te doden, en een eenvoudiger algoritme is makkelijker te valideren.
- Hoe gaat ai onze bedrijfsprocessen ondersteunen? Denk verder dan het algoritme en kijk naar het gewenste resultaat.
- Is dit verantwoorde ai? Is het eerlijk en onbevooroordeeld? Kan iets of iemand schade oplopen?
Met vooruitdenken, grondige planning en zorgvuldige uitvoering kan ai als magie werken – met HAL die elke keer de deuren van de pod opent. Maar om dat voor elkaar te krijgen, moeten alle entiteiten die ai willen benutten, zich houden aan basisrichtlijnen zoals die in de voorgestelde ai-verordening van de EU worden beschreven.
Verantwoordelijke AI betekent: afscheid nemen van algoritmen.
Om rules/specs in actions om te zetten heb je algoritmen nodig.
owjee, straks gaat de filosofische beerput weer open.
Laten we het deksel van de filosofische beerput er eens afhalen want we zitten midden in een experiment om het gedrag van de bevolking te beïnvloeden. De kunstmatige intelligentie van algoritmen kent een allesbepalende invloed op ons leven nu er beslissingen genomen worden op basis van modellen. Het gaat niet om het afscheid nemen van algoritmen maar om een afscheid van simpele menselijke dingen als gevoel waardoor geloof in de uitkomst van een algoritme zonder de werking ervan te begrijpen als het volgen van een Duitse filosoof is.
Oudlid, verantwoordelijkheid betreft de vraag hoe wij kunnen antwoorden op gegeven situaties waarin we terechtkomen.
Heb je wel eens een algoritme gezien die kan uitleggen waarom het bepaalde informatie opvraagt of die kan uitleggen hoe het tot bepaalde resultaten is gekomen, bijvoorbeeld de hoogte van een toeslag (eigenaardig woord voor toelage) voor een bepaalde burger?
Om die reden wordt responsible ai ook wel explainable ai of declarative ai genoemd.
Hoe noem je toch mensen die van alles beweren over kunstmatige intelligentie zonder enige kennis van zaken?
Ik kan even niet op het woord komen 🙂
Jack,
Verantwoordelijkheid is een groot woord want wie heeft er een ‘brengplicht’ aangaande de uitleg en wie een ‘haalplicht’ als het om de dataverwerkingen gaat. Als reversed engineer heb ik namelijk heel veel algoritmen gezien waarvan ik niet met zekerheid de rechtmatigheid van verwerking kan beoordelen omdat het de wetgever is die zelf de wet steeds verder oprekt. Kortom, Who watches the watchmen?
In de reacties wordt ook heel intelligent een hoop aan elkaar explained. Hoe bevalt het ?
Even niet op het woord kunnen komen is herkenbaar, gewoon de leeftijd.
En nu we toch de deksel optillen : misschien is ai pas echt volwassen als het ook een inactief geheugen heeft, waarin ze herinneringen opslaan die ze niet goed uitkomen. En die ai kiezen we we dan steeds, want de alternatieven zijn misschien nog slechter. Je weet tenslotte niet wat je dan krijgt he.
Wat betreft het geheugen is er zoiets als opslag en de vraag wat je wel op mag slaan en niet is zo’n dingetje waar nog veel onduidelijkheid over is. Het recht om vergeten te worden gaat eigenlijk om de vergeving want eens een boefje altijd een boefje past niet helemaal in ons rechtssysteem, Dino is dan ook bijzonder goed in het nadragen van andermans zonde. We zullen het model eens trainen om zijn zure reacties te herkennen om een chatbot automatisch te laten reageren.
Mooi artikel. In Nederland denkt men bij misbruik van ai vooral aan algoritmes van de overheid (belastingtoeslagen, leefbarometer, mestwetgeving, enz) en multinationals zoals Google en Meta / Facebook. In de Volksrepubliek China, waar men al helemaal niet van tegenmacht houdt, wordt ai veelvuldig gebruikt in combinatie van meer traditionele geavanceerde ict-middelen. Van het bewaken van mensenmassa’s tot aan het verwijderen van sporen op het internet van en rond personae non gratae. Probeer in het Westen maar eens wat het internet te krijgen. In de Volksrepubliek China kan dit soms in een half uur. Social media accounts, websites, zoekmachine cache en webpagina’s in een Wayback Machine of Internet Archive kan daar heel snel in … 404 zijn veranderd. Bijvoorbeeld, informatie van en over in de Volksrepubliek China zeer bekende vrouwen als regisseuse Chloe Zhao en recentelijk nog tennisster Peng Shua, is heel snel van het Chinese deel van het Internet verwijderd en van buitenaf tegengehouden. Verantwoordelijke ai is dus ook verantwoordelijkheid van overheid en van de leveranciers van die overheid.