In China worden burgers beboet wanneer ze drie keer door rood lopen of scholieren gestraft als ze uit het raam kijken. Het zijn voorbeelden van hoe de inzet van kunstmatige intelligentie (ai) een negatieve impact kan hebben op de maatschappij. Dat vertelt Pieter Boon, partner bij Xomnia, in het Computable Café.
In het Computable Café, dat plaatsvindt tijdens de ict-beurzen Infosecurity.nl en Data & Cloud Expo, leidt Computable-hoofdredacteur Sander Hulsman een sessie over kunstmatige intelligentie. Deelnemers zijn Remco Verhoef (oprichter Dutchsec), Mark Olij (director business development bij Arrow ECS Benelux), Marie-Jose Hoefmans (chief essential officer bij Schluss) en Pieter Boon (partner bij Xomnia).
Kunstmatige intelligentie (ai) bestaat al lang, maar het lijkt in Nederland nog in de kinderschoenen te staan. ‘We onderschatten hoever ai al in de praktijk wordt ingezet’ vertelt Mark Olij. ‘De spraakassistent Siri van de iPhone is een bekend voorbeeld van ai, maar ook Google Translate werkt op basis van ai.’
China
Een land waar kunstmatige intelligentie al veel gebruikelijker is, is China. ‘Op een universiteitscampus met 25.000 leerlingen wordt ai ingezet om examens snel en automatisch na te kijken’, vertelt Olij. ‘Deze toetsresultaten worden geanalyseerd om vervolgens de leermethodes af te stemmen op het niveau van de studenten. En in grote steden wordt bijvoorbeeld de mensenstroom in kaart gebracht. Via de camera’s wordt gezichtsherkenning toegepast. Wie in Shanghai drie keer door rood loopt krijgt automatisch een boete op de deurmat.’
Pieter Boon vertelt dat in de Chinese klaslokaken camera’s worden ingezet om kinderen te straffen die naar buiten kijken. ‘Dat wijst er wel op dat ai gevaarlijk kan zijn in een dictatuur. Ik vind dan ook dat ze te ver doorslaan in China.’
Ondersteuning bij beslissingen
Marie-Jose Hoefmans is bang voor de kunstmatige intelligentie-praktijken in China. ‘Ik zie zeker het potentieel van ai, maar heb ook mijn twijfels over de inzet ervan. We zien het als een technologie die ons ondersteunt in het dagelijks leven, maar wanneer deze ver genoeg is doorontwikkeld kan het ook beslissingen voor ons gaan maken.’
En dat vindt Hoefmans een eng idee: ‘Wanneer een machine beslissingen voor je maakt, wordt je keuzevrijheid beperkt. Het algoritme wordt steeds meer aangepast op jouw voorkeuren en daarmee wordt jouw denkwijze weer bevestigd. Daarmee wordt je steeds meer in je ‘eigen hokje’ gezet en sta je niet meer open voor andere en nieuwe mogelijkheden.’
Hoefmans vindt daarom dat ai geen menselijke beslissingen mag maken en enkel als ondersteuning mag dienen. ‘Hoe kun je kunstmatige intelligentie vertrouwen? We kunnen de systemen niet controleren, waardoor we niet weten welke data worden gebruikt bij de beslissingen.’
Zelfvarende boot
Pieter Boon ontwikkelt voor Xomnia met kunstmatige intelligentie-algoritmes en is minder angstig voor de technologie. ‘Ai kan handmatige taken automatiseren, maar ik geloof niet het volledig zelfstandig moet opereren.’ Concreet ontwikkelt hij een zelfvarende boot. ‘De boot is uitgerust met een rode knop om in te grijpen bij fouten. Daar leert de ai weer van en dat helpt om het algoritme te optimaliseren. Het is niet mogelijk om een superalgoritme te ontwikkelen dat in één keer alles goed doet, de mens moet betrokken blijven om dit te optimaliseren.’
Boon ziet dan ook de voordelen van kunstmatige intelligentie. ‘Met ai kunnen we bijvoorbeeld zelfrijdende treinen ontwikkelen, wat energiebesparing oplevert. Of Google die ai heeft ingezet om het energieverbruik en de koeling van zijn datacenters te optimaliseren. Op die manier kan ai helpen om onze milieu-footprint te verbeteren.’ Bovendien kan de inzet van ai handmatige taken automatiseren, wat op bepaalde vlakken kostenbesparing kan opleveren.
Wetgeving en banenverlies
De podiumgasten concluderen dat Nederland op gebied van kunstmatige intelligentie achterloopt op China. Remco Verhoef: ‘Data is nodig om het ai-algoritme te trainen. En in Europa hebben we veel wet- en regelgeving op het gebied van privacy, waardoor er restricties zijn welke data je wel of niet mag gebruiken. Dit kan er toe leiden dat we onze algoritmes onvoldoende kunnen trainen. En wellicht is dit de reden dat wij voorzichtiger met data omgaan dan in China.’
Mark Olij zegt dat we nu nog in een ontdekkingsfase zitten en verwacht dat er nog meer regelgeving gaat komen. ‘Er moet serieus nagedacht worden over welke data gebruikt wordt en wat het betekent voor de mensheid.’ Boon opteert daarom voor een keurmerk voor algoritmes die door een onafhankelijk instituut gegeven moet worden.
Doordat wij in Nederland achterlopen op andere landen, vertrekt Nederlands talent naar het buitenland om hier verder te werken met ai. Maar ook wordt vaak gevreesd voor banen die verdwijnen door ai. Volgens Verhoef is dat niet nodig: ‘Saaie handelingen automatiseer je met kunstmatige intelligentie’, vertelt Verhoef. ‘Hierdoor valt zeker werk weg, maar er komen alleen maar interessantere banen voor terug. Het gaat vooral om banen waarbij creativiteit nodig is, want dat kan ai niet realiseren.’ Hij spreekt over data scientists of mensen die algoritmes kunnen creëren.
Beseffen ze dan niet dat AI in het westen ook al gebruikt wordt om een meer totalitaire samenleving te creëren?
Bijv. Facebook, Youtube, Twitter zet al AI om met name politieke censuur te plegen en daarmee het democratische proces van de gebruikers te beïnvloeden. Sterker nog door hier veel te weinig tegen te ageren riskeren wij dat toepassing van (stringente) AI op sociale gebieden op kan rukken zonder dat hier goede afwegingen over gemaakt worden en voor de winst gaan een tunnelvisie oplevert.
Een passage in de tekst viel mij op. Door de privacy wetgeving zou het moeilijker zijn om AI te trainen. Is dat exact niet de reden waarom je daar de AI niet wilt toepassen?