In het publieke debat en verhalen in de media over artificial intelligence (ai) voeren doemscenario’s vaak de boventoon. Systemen zouden slimmer worden dan mensen en robots zullen de mensheid gaan overheersen. Die angst belemmert de ontwikkeling van ai en daar moet een einde aan komen, vindt Het Platform voor de Informatiesamenleving, ECP. Het doet een poging om horrorscenario’s, hype en realiteit van elkaar te scheiden.
ECP startte de discussie door de whitepaper ‘Artificial Intelligence – Gespreksstof en handvatten voor een evenwichtige inbedding in de samenleving’ te presenteren tijdens het Norea-voorjaarssymposium over kunstmatige intelligentie en robotisering voor it-auditors, Daarin meldt het dat het aan een ‘AI Impact Assessment’ werkt. Dat is een hulpmiddel voor de ontwikkeling van verantwoorde ai-toepassingen.
Lid van het managementteam en projectadviseur van ECP, Daniël Frijters: ‘Vanwege de grote maatschappelijke impact van kunstmatige intelligentie is het van belang dat bedrijven, overheid, kennisinstellingen, politici, bestuurders en eindgebruikers met elkaar in gesprek gaan over dit onderwerp. Hoe benutten we de kansen die kunstmatige intelligentie biedt? En hoe zorgen we er gelijktijdig voor dat intelligente toepassingen rekening houden met voor mensen belangrijke ethische en juridische waarden?’
Hij benadrukt dat die vragen steeds belangrijker worden nu bijvoorbeeld zelfrijdende auto’s, automatsering in de rechtspraak en zorgrobots hun intrede doen en nieuwe toepassingen voor de deur staan. Voor het formuleren van antwoorden werkt ECP met zijn deelnemers verder in de daarvoor ingerichte werkgroep Kunstmatige Intelligentie. De werkgroep ontwikkelt een ‘AI Impact Assessment’ als hulpmiddel voor het vroegtijdig onderkennen van de maatschappelijke, ethische, juridische en organisatorische impact van ai-gebruik. ‘Niemand is gebaat bij een samenleving die grootschalig gebruikmaakt van onverantwoorde intelligente systemen zonder ethisch besef’, benadrukt Frijters.
Ai en Ethiek
In de whitepaper somt Frijters belangrijke maatschappelijke thema’s rondom ai op, zoals ethisch besef (of het gebrek daaraan), de gevolgen van ai voor werk, een machtspositie voor een klein aantal bedrijven, transparantie van algoritmen, veiligheid en cybersecurity en funneling (ongewenst informatiefilter).
Ethische vraagstukken die volgens ECP aan bod moeten komen in de discussie over de ontwikkelingen rondom ai zijn: waarborgen voor juridische checks and balances, informatie-architectuur die alles bepalend wordt, professionals die niet langer expert zijn van eigen regels, algoritmen die hun eigen gang gaan en de consequenties die ai heeft voor rechtsbescherming van burgers en publieke waarden die onder druk komen te staan.
‘Ai is geen revolutie’
Kunstmatige intelligentie is volgens Frijters geen revolutie die de mensheid ineens overkomt. ‘Het is een ontwikkeling die onze samenleving langzaamaan binnenkomt en verandert. Innovaties bieden nieuwe mogelijkheden en nieuwe economische kansen, maar er ontstaan ook ethische en maatschappelijke vraagstukken. Zo zijn er nu al systemen die redeneren, leren en zelfstandig strategieën en doelen bedenken.’
Frijters schrijft verder: ‘De hype met gevaarlijke cyborgs miskent de realiteit dat er nu al systemen zijn die niet-transparant tot een resultaat komen. Mensen hebben hier nauwelijks of geen invloed op en kunnen de resultaten niet aanpassen. De discussie moet daarom niet zo zeer gaan over kunstmatige intelligentie als technologie, maar over wenselijkheid of onwenselijkheid om menselijke controle in te bouwen.’
Ai-platform
ECP wil een platform oprichten waar bedrijven, overheid, kennisinstellingen, politici, bestuurders en eindgebruikers met elkaar in gesprek gaan, om antwoorden te formuleren op de uitdagingen die ai met zich meebrengt en om economische en maatschappelijke kansen optimaal te benutten.
Als je kijkt naar de ontwikkelingen in de wapenindustrie dan zie je daar dat er massaal gewerkt wordt aan de ontwikkeling van autonome wapensystemen al dan niet met AI toepassingen. Me dunkt dat je daar wel degelijk een hele zware kanttekening mag plaatsen.
Regelmatig lees je weer dat een ‘zelfrijdende’ auto is verongelukt en de inzittenden of gewond of gedood zijn.
Dat is nog geen reden om alle AI stelselmatig af te keuren. Maar dat er in het huidige klimaat zakelijke belangen meer aandacht lijken te hebben dan ethiek mag wel degelijk gezegd worden. Ondanks het feit dat de ECP lobbyclub zegt dat dit niet het geval zou zijn want die pleiten voor een meer brede adoptie en dus een grotere markt voor de bedrijven die zijn direct of indirect vertegenwoordigen.
Is AI niet een onderdeel van zelfbewustzijn met intelligentie? Als systemen een zelfbewustzijn krijgen dan moeten we pas gaan oppassen? Zolang wij mensen de eindbeslissing nemen is er niets aan de hand.