Overheidsbestuurders moeten beleid voeren op de digitale samenleving. Zij moeten in staat zijn de principes van goed bestuur toe te passen op nieuwe technologieën. Hebben zij dit niet op hun radar staan, dan kunnen ze beter hun bestuurszetel opgeven. Dat is de boodschap van Mirko Schaefer, universitair hoofddocent aan de Universiteit Utrecht tijdens zijn openingsspeech vandaag op Overheid 360°, het congres over informatiemanagement voor de overheid.
Schaefer hield zijn toehoorders in de Jaarbeurs in Utrecht voor dat hoewel data neutraal en accuraat overkomen, dat niet altijd zo is. Data zijn juist vaak gekleurd. Iemand heeft bijvoorbeeld een beslissing genomen om bepaalde data te verzamelen en andere niet. Bovendien representeert een verzameling data maar een deel van de realiteit en ook de context, waarin de data worden gebruikt, bepaalt de resultaten van de data-analyse. Data kunnen dus politiek en bepalend zijn voor de manier waarop we met elkaar leven en omgaan.
Inherent daaraan zijn dataprojecten eveneens politiek en daardoor niet alleen een technische maar ook een maatschappelijke uitdaging. Schaefer: ‘De toegang naar nieuwe en grote hoeveelheden data en de implementatie van algoritmes in openbaar bestuur vraagt om beleid en verantwoordelijkheid.’
Vooraf nadenken
Hij vindt dat de overheid vooraf moet nadenken over wat er mis kan gaan bij het gebruik van algoritmes en hoe dat bij te sturen valt. ‘Want het gaat geregeld mis. Een algoritme kan heel overtuigend ‘nee’ zeggen. In Michigan bijvoorbeeld wees het algoritme van een nieuw uitkeringssysteem negentig procent van de aanvragen af. Het bestuur was niet in staat om dit snel accuraat bij te sturen.’
Schaeffer vervolgt: ‘Iedereen is altijd enthousiast over dashboards maar die maken geen beleid. Bestúúrders, die moeten beleid voeren op de digitale samenleving. Zijn ze daar niet mee bezig dan zouden ze hun bestuurszetel moeten opgeven. De rol van de overheid verandert namelijk: zij moet verantwoording kunnen afleggen over de inzet van data en laten zien dat nieuwe digitale praktijken de samenleving niet beperken maar versterken.’
Bestuurders moeten in zijn ogen over een minimale digitale vaardigheid beschikken of anders die digitale geletterdheid aanleren. Informatiemanagers moeten hen daarop aanspreken. De hoofddocent ziet op dit vlak wel positieve ontwikkelingen, onder andere in de Tweede Kamer: ‘Politici zijn zich op ict-terrein aan het bijscholen en gaan ook het debat over algoritmes en ethiek aan. Algoritmes worden straks net zo nauwkeurig gelezen als wetsvoorstellen.’
Ethiek
Hij merkt dat ethiek een belangrijk onderwerp wordt met betrekking tot digitalisering. ‘Ethiek doet niet anders dan waarde expliciet maken: welke waarden zijn ons dierbaar en willen we niet aantasten door technologie. Dat moeten we bespreekbaar maken. Bedrijven zijn er enthousiast mee bezig; ik zie talloze manifesten over ethiek en ai voorbijkomen. Gartner noemt het zelfs een van de strategische trends van 2019. Maar ik krijg daarbij vooral de indruk dat bedrijven willen laten zien dat ze op dit vlak goed bezig zijn en daardoor aan regulering hopen te ontsnappen.’
Hij mist vooral handvatten waarmee overheden de vormgeving van dataprojecten, bijvoorbeeld voor smart cities, kunnen aanpassen waardoor de publieke waarden zijn te beschermen. De Utrecht Data School, waarvan hij medeoprichter en projectleider is, heeft zo’n handvat opgesteld. Praktische vragen daarbij zijn: welke data hebben we voor welke vraagstukken nodig?, hoe beperken we de dataverzameling?, beschikken we over de benodigde vaardigheden en infrastructuur? en hoe beïnvloeden data-analyses ons beleid?
De enige reden dat data worden vastgelegd over personen of transacties waar personen bij zijn betrokken, is dat het geld oplevert. In feite is dat de “kleuring” die iedere dataset heeft die op deze wijze tot stand is gekomen.
De gedachte om dit soort data vast te leggen louter vanwege winstbejag is op zich al ethisch onjuist evenals het idee om menselijke beslissers binnen de overheid te vervangen door algoritmes die in toenemende mate het lot gaan bepalen van miljoenen mensen.
Voor private organisaties is dit nog enigzins begrijpelijk, maar publieke organisaties zouden dit soort data niet mogen verzamelen.
Uiteraard moeten persoonsgegens en transactiedata worden vastgelegd om primaire overheidsprocessen te ondersteunen (zoals het vaststellen van identiteit), maar buiten die primaire processen zou het verboden moeten zijn omdat:
– de overheid niet kan garanderen dat die data ooit wordt gelekt of bij derde partijen beland in de private sector
– de overheid niet kan garanderen dat die data ethisch juist wordt ingezet
– de overheid niet kan garanderen dat privacy schending plaats vindt door medewerkers van de overheid zelf
– de overheid niet kan uitleggen hoe een algoritme tot een specifieke beslissing is gekomen
– het menselijke beslissers vervangt door machines die beslissingen nemen vanuit beperkte (omvang van de training set) algoritmen en op basis van een beperkte context (omvang van de data set).
– de kwaliteit van besluiten van menselijke beslissers achteruit gaat zodra wordt overgeschakeld op algoritmen en de overheid op den duur geheel overschakeld op algoritmen al dan niet vergezeld met een menselijke “rubber stamp”
– de overheid de gevolgen van foute beslissingen kan afschuiven op de kwaliteit van een algoritme geleverd door een private derde partij
Dat ethiek zo’n groot issue is bij AI komt voornamelijk omdat mensen aanvoelen dat het intrinsiek fout is om machines te laten beslissen over mensen.
@KJ Las deze week een artikel wat hierbij aansluit:
https://www.spaink.net/2019/10/09/de-nieuwe-horigheid/
Mooi in het stukje is dat ethiek volgens Gartner hoog op de strategische agenda komt te staan waar Mirko Schaefer meteen aan toevoegt, is het voor de buitenwacht om aan regulering te ontsnappen. Mooi weer spelen.
Maak me niet zoveel illusies over het data verzamelen en het gebruik daarvan, je schuift er langzaam in en het zal steeds meer onze persoonlijke levensfeer beinvloeden. Dat is privacy. China is niet ver weg.
@Louis
Inderdaad, ethiek is gewoon verworden tot een keurmerkje voor dubieuze produkten.
Wat de rol van IT betreft in de samenleving; ik kan mij nog steeds de naieve jaren 80 voor de geest halen toen men nog volhield dat automatisering ons zou bevrijden van geestdodend werk en dat mensen eindelijk vrij zouden wezen om zinvolle zaken met hun leven te gaan doen. Ruim 40 jaar later blijkt precies het omgekeerde en wordt IT in toenemende mate door overheden ingezet om op mensen te spioneren en ze onder controle te krijgen en te houden.
Mirko Tobias Schäfer stelt als mede-oprichter van de Utrechtse Data School dat er meer digitale geletterheid bij de bestuurders van de overheid moet zijn, hij verbindt zelfs consequenties aan het ontbreken hiervan. De universitair hoofddocent concludeert op basis van onderzoek middels Twitter echter vooral dat er sprake is van een echokamer en verzuiling in de ‘Datafied society’ omdat gebruikers bewust de mediaboodschappen selecteren die overeenkomen met het algemene sentiment binnen hun (onderwerp)gemeenschap, of ze daarop afstemmen.
In dat kader is de conclusie van hoofdeconoom Peter Hein van Mulligen bij CBS dat 18% van de boeren miljonair zijn alleen maar stemmingmakerij, het spreekwoordelijk koren op de molen van de socialisten die zonder enige ondernemersrisico uit de staatsruif eten met een bovenmodaal salaris en goed pensioen. Nu kent een ‘OPEN datafied society’ ook nog zoiets als onderzoeksjournalistiek, tegenhanger van de opiniërende journalistiek is minder populair bij de bestuurders die meer waarde hechten aan eigen imago dan de integriteit maar statistiek zonder context is uiteindelijk gewoon een leugen.
Nu is het geen geheim dat de algoritmen in de klimaatdiscussie zijn bedacht door faculteit geesteswetenschappen en dat de ongeverifiëerde uitkomsten ervan als een algemeen sentiment door activisten alsmaar herhaald worden om zo tot beleid vertaald te kunnen worden zonder democratische inspraak. In geen enkel verkiezingsprogramma stond maar iets over halveringen van de veestapel of onteigeningen van boeren, net zoals dat geen enkele partij de consequenties van een gedwongen energietransitie op de koopkracht heeft doorberekend. En wie de geschiedenis niet kent is gedoemd deze te herhalen want een ouderwetse verzuiling in ‘The datafied society’ ken ik nog van communistische ideologie met lege schappen in de winkel, welkom in de bedot.com economie.
Volgens KJ is ethiek bij AI een groot issue omdat mensen iets aanvoelen.
Volgens AI voorstanders is dat nu juist het probleem : mensen voelen iets zonder de datafeiten te kennen.
‘Algoritmes worden straks net zo nauwkeurig gelezen als wetsvoorstellen.’
Als ik de reacties lees laat men zich daarbij leiden door “Gartner”, “kleuring”, “winstbejag”, “naieve jaren 80”, “onderzoek middels twitter”, “echokamer”, “verzuiling”, “stemmingmakerij”, “eigen imago”, “sentiment”. 😉
“Een algoritme kan heel overtuigend ‘nee’ zeggen. In Michigan bijvoorbeeld wees het algoritme van een nieuw uitkeringssysteem negentig procent van de aanvragen af. Het bestuur was niet in staat om dit snel accuraat bij te sturen.”
Ik zou niet weten waarom een bestuur daarvoor kennis van ICT hoeft te hebben. Ze zijn bestuurder dus geven een opdracht aan iemand om dat voor ze te doen. En controleren hoogstens of het doel is behaald met de gegeven middelen.
Verder is het voor een ICT-er al niet mogelijk om AI algoritmes te lezen. Dat is nu net het probleem. Dus ik verwacht van niet ICT-ers niet dat zij dat wel kunnen.
Blijkbaar is het testen van dit algoritme op reële data niet goed gedaan. Dat is de bestuurder niet aan te rekenen, wel de uitvoerder van de opdracht.
@EWOUT DEKKINGA “Nu is het geen geheim dat de algoritmen in de klimaatdiscussie zijn bedacht door faculteit geesteswetenschappen” Dat is een stellige uitspraak, is die ook ergens op gebaseerd? Volgens mij heeft onder andere de KNMI veel tijd en geld gestoken in het maken van klimaatmodellen en ik denk dat daar ook andere mensen dan geesteswetenschappers werken zoals bijvoorbeeld klimatologen.
Corne,
Veel tijd en geld steken in klimaatmodellen is nog geen garantie voor de geloofwaardigheid ervan. Deze modellen blijken vol te zitten met FUD (Fear, Uncertainty & Doubt) factoren zoals bijvoorbeeld de angst voor meer CO2 in de atmosfeer terwijl er geen rekening gehouden wordt met allerlei chemische factoren. Tegenstrijdigheid van een broeikasgas zit in de evenwichtsreactie, politieke vraag hierin gaat om menselijke aandeel waar blijkens onderzoek van IPSOS (wereldwijd) steeds meer twijfel over is. Ik wees in de laatste paragraaf van mijn voorgaande reactie dan ook vooral op het feit dat er maar weinig democratische inspraak aangaande klimaatkeuzen is maar we wel de rekening ervan gepresenteerd krijgen.