Patronen ontdekken in heel veel data. Veel mensen vinden het opwindend, maar slechts weinigen zien de keerzijde van deze medaille.
Terwijl ik dit stukje schrijf is er ophef. Een Zwolse politieagent houdt een donkere jongeman in een dure witte auto staande, de succesvolle rapper Typhoon. Voor de agent geldt dat de combi donker-man-limo wijst op drugsgeld en hij geeft dat ook eerlijk toe. Iedereen boos. Excuses van de politie voor ‘racial profiling’, niet voor het staande houden van wie dan ook op zo’n wankele basis. Immers, zelfs als jonge zwarte mannen in dure auto’s honderd keer vaker in drugs doen dan blanke besjes in een Aygo, zullen de meeste van die mannen toch niet drugscrimineel zijn.
Gedachtenexperiment
Wat de rapper overkwam gaat veel meer burgers overkomen. Bedrijven en overheden zijn helemaal in de big data. Het recept? Verzamel data, veelsoortige data, liefst gedragsdata, ‘crunch’ die data en vind marketingtargets, fraudeurs, jihadisten en liefdespartners!
We doen een gedachtenexperiment: we stoppen alle data waarover de overheid beschikt in een databucket en gaan op zoek naar patronen. Grote kans dat onze rapper dan ook als een potentiële crimineel naar voren komt. Die agent is namelijk niet gek. Hoewel. Misschien zijn agenten toch racisten en vinden ze vooral jonge, donkere drugscriminelen omdat witte oude taarten nooit worden gecontroleerd en daardoor buiten de relevante crimi-bestanden blijven. Ook big data zijn vaak de neerslag van selectieve waarneming en gegevensvastlegging. Alleen storen we ons minder aan een transparante agent dan aan een software-orakel. Mensen zijn immers racistisch. Racisme is emotie en software is emotieloos. Niet dus.
Mooie patronen
Er speelt nog iets anders. De software van vandaag is onredelijk en niet accountable. Wie in big data struint, vindt redelijke en onredelijke, permanente en tijdelijke patronen. Een patroonzoekend programma kan er net zo goed naast zitten als een agent, maar zal anders dan die agent meestal geen begrijpelijke regel formuleren. Tegenover veel meer data en rekenkracht dan waarover een mens beschikt staat vooralsnog het ontbreken van redelijkheid en ‘judgment’ van software. Elvis Albers van 18 met zijn vlasbaardje uit Oldeholtwolde kan zomaar worden aangewezen als kandidaat-jihadist, want heel veel van die lui hebben een naam die begint met ‘El’ of ‘Al’. Wie zal zeggen wat de software aan mooie patronen vindt?
Wat ik schrijf wordt al praktijk. Ik sprak een controleur van een overheidsbedrijf die mij vertelde hoe hij fraudeurs opspoort. Hij stopt data uit verschillende systemen in een Excelletje en sorteert die op allerlei ratio’s. De buitenbeentjes bekijkt hij vervolgens meer in detail. Dat controlewerk was altijd gebaseerd op gekwantificeerde afwijkingen in bestanden met ouderwetse, gestructureerde gegevens van administratieve aard – oldschool small data van het ‘Text & Number’-type. Dat verdwijnt binnenkort. Zijn werkgever is bezig met een ict-project om fraudesignalen uit de data te halen met moderne, briljante patroonzoeksoftware. Een hele club van briljante academici was daarvoor ingehuurd. Mensen met domeinkennis, zoals mijn gesprekspartner, moesten vooral ver weg blijven.
Effectiviteitsmeting onmogelijk
Ik voorzie voor de komende jaren big data ict-projecten bij de vleet. Dergelijke projecten kunnen namelijk haast niet mislukken. Immers, als je niet weet wat je software doet dan wordt effectiviteitsmeting ook onmogelijk. We zien dat al bij de NSA-casus, waar grote twijfel bestaat aan de effectiviteit van terreurbestrijding op basis van big data.
Ondertussen is het niet mijn bedoeling om big data en patroonzoekende software permanent te debunken. Het is vooral een kwestie van rijpheid. Er is geen principiële reden om te veronderstellen dat software die patronen herkent deze niet kan formuleren in begrijpelijke, uitlegbare en toetsbare regels. Alleen is tot dat moment aanbreekt de interpreterende mens een onmisbaar onderdeel van geautomatiseerde systemen die speuren naar patronen in onvolledig gestructureerde data.
Controlefactor
Terug naar de agent en de rapper. Als econoom denk ik dat de vraag moet zijn hoeveel groter de kans is dat een donkere jongeman in een dure auto in drugs doet, vergeleken met pakweg de gemiddelde Computable-lezer. Laten we aannemen dat die kans twee keer groter is. Als jonge, donkere mannen in dure auto’s meer dan twee keer vaker dan Computable-lezers staande worden gehouden, dan is de politie racistisch en inefficiënt. Is de controlefactor lager dan twee dan is de politie politiek-hypercorrect en inefficiënt.
Het is laat geworden. Ik ga naar huis. Bovengemiddelde kans dat ik straks gecontroleerd word op drankgebruik. Autochtone man van middelbare leeftijd. Benidorm-sticker op de achterruit van de auto. The usual suspect.
Is onze politie racistisch, politiek-hypercorrect of juist evenwichtig? Ik zou het graag willen weten. Laat dit nou een prachtige vraag zijn voor een grondige analyse op basis van heel veel data, big data desnoods.
Dit artikel is ook verschenen in Computable Magazine, jaargang 49, nummer 6, zomer 2016.
Beste René,
Mooi artikel. Dank hiervoor.
Wat betreft je laatste onderzoeksvraag,
Wie bepaalt wat racistisch, hypergevoelig of evenwichtig is en hoe stel je deze vraag?
Een computer is gemaakt door een mens en volgt een bepaald algoritme.
Dit algoritme is gemaakt door een mens en moet ervoor zorgen dat de computer zijn rekenkracht gebruikt om een bepaalde handeling te doen.
Om bovenstaande onderzoeksvraag te beantwoorden moet de computer uit het algoritme halen wat de definities van racisme etc is en wat voor vraag de gebruiker kan stellen.
En dan hebben we het nog niet gehad over de kansberekening die je gebruikt in je betoog en die het algoritme ook zou moeten gebruiken. En er zijn nog wel meer vragen te verzinnen.
Oftewel complex en zeer fout gevoelig.
Ik hoor het wel als ik zo’n algoritme mag testen. Dat wil ik dan wel samen doen met een domeindeskundige en een
Briljante informatica-academicus.
Dan kan ik mijn bevindingen laten controleren.
Ik heb er nu al zin in.
Beste René,
Mooi artikel. Dank hiervoor.
Wat betreft je laatste onderzoeksvraag,
Wie bepaalt wat racistisch, hypergevoelig of evenwichtig is en hoe stel je deze vraag?
Een computer is gemaakt door een mens en volgt een bepaald algoritme.
Dit algoritme is gemaakt door een mens en moet ervoor zorgen dat de computer zijn rekenkracht gebruikt om een bepaalde handeling te doen.
Om bovenstaande onderzoeksvraag te beantwoorden moet de computer uit het algoritme halen wat de definities van racisme etc is en wat voor vraag de gebruiker kan stellen.
En dan hebben we het nog niet gehad over de kansberekening die je gebruikt in je betoog en die het algoritme ook zou moeten gebruiken. En er zijn nog wel meer vragen te verzinnen.
Oftewel complex en zeer fout gevoelig.
Ik hoor het wel als ik zo’n algoritme mag testen. Dat wil ik dan wel samen doen met een domeindeskundige en een
Briljante informatica-academicus.
Dan kan ik mijn bevindingen laten controleren.
Ik heb er nu al zin in.
René,
Mooi zo’n betoog, maar als we je voorbeelden betrekken op de faal-industrie: Is het de fout van de software? van het (data) algoritme? Of van de eind gebruiker?
Juist. De eindgebruiker. Want in je voorbeelden van fraude en racisme zie je dat de software een suggestie doet, of een kansberekening en die kunnen heel bruikbaar zijn. Dus op basis van de software krijg je een kansberekening. Meer X pleegt fraude, de zekerheid is 95%. Dat een controleur op basis van de gegeven informatie de verdachte behandeld als een crimineel is een fout van de controleur, niet van de (big) data en de software. Daarnaast kan software alleen maar leren als de uitkomsten weer teruggeven worden aan de data waardoor er de volgende keer misschien 98% uit komt. Of 20%. Dat Typhoon aangehouden is had niet te maken met welke big data dan ook, en je data is ook niet erg precies. Die Limo bleek een Outlander PHEV te zijn, de Astra onder de hybrides.
Een aantal jaren geleden was ik ook met data bezig voor de Rabobank. Er waren daar managers die heel wijselijk knikte en zeiden dat de softe kant van leidinggeven heel belangrijk was. Dat je menselijk wil zijn betekent niet dat je de data maar opzij moet schuiven.
Natuurlijk is alles wat voortkomt uit big data niet per se waar. Een vriend van me deed een meta onderzoek (onderzoek op onderzoeken) en kwam erachter dat alle onderzoeken waarin de significante cijfers onder percentage X kwam dat de conclusies uit het onderzoek niet klopten.
Maar nogmaals big data gaat over kansen en voorspellingen wat je daarmee doet is aan de mens en zijn competenties.
@René Veldwijk
“Racisme is emotie en software is emotieloos. Niet dus.”
Software is emotieloos. Je stopt wat gegevens in de software, en er komen resultaten uit. Wat dat is, heb jij van tevoren in de software vastgelegd. Als dat racistisch is, dan heb je dat er zelf ingestopt.
Big Data gaat onder andere over patronen en doelgroepen. Het hoeft niet racistisch te zijn, het is altijd wel discriminerend en/of generaliserend.
Stel je hebt iets onderzocht en dit komt er uit:
“50% van de vrouwen drinkt wekelijks alcohol”
“80% van de mannen drinkt wekelijks alcohol”
De conclusie (bv “mannen zijn alcoholisten”) die wordt door jou getrokken, niet door de computer! En als de computer dat wel doet, dan heb jij dat er als regel ingestopt.
De NSA (en Google en Facebook) geeft Big Data een slechte naam. Zij verzamelen alles, en trekken conclusies die ver buiten de onderzochte gebieden liggen (lage statistische relevantie).
Een bedrijf heeft meestal als doel om meer te verkopen, een groter marktaandeel te veroveren, of meer winst te maken. Bedrijven die aan Big Data doen, verzamelen alleen gegevens die voor hun doel relevant zijn. Die worden door (hopelijk) de juiste modellen gehaald, en de uitkomsten worden getoetst door mensen met domeinkennis.
Overigens, een computer zou de rapper Typhoon nooit hebben aangehouden: de nummerbord controle had hem al groen licht gegeven.
Even een bijzonder zuur voorbeeld.
Frankrijk verzamelt al heel lang op hele grote schaal data, ondanks dat is Frankrijk al 3 keer door een gruwelijke aanslag getroffen.
Het schijnt dus toch niet zo goed te funktioneren met “big data”, leg dat de nabestaanden maar eens uit.
Ik sluit mij aan bij met bijdrage 16 juli 2016 11:08. Het enige dat wordt getoetst zijn de eigen criteria.
Zo zou iemand die meer dan 2 glazen wijn per dag drinkt in sommige politiek correcte kringen al een alcoholist worden genoemd, iemand die tegen de komst van een AZC is, is dan al gauw een racist en een PVV stemmer uiteraard ultra-rechts. Wie de criteria bepaald, bepaald dus ook de conclusies en de uitslag. Dezelfde principes spelen in de journalistiek.
Daarnaast heb je ook nog een dataverzamelingsprobleem, want op dit moment is het juist verboden om kenmerken als etniciteit te registreren.
Klaarblijkelijk willen de mensen wel de (politiek correcte) conclusies getrokken door een onafhankelijk medium als een computer, maar niet de feiten.
Jan wat een vreselijk domme reactie. Hiermee diskwalificeer je jezelf.
Er zijn aanrijdingen… dus goede auto’s maken functioneert niet.
Diskwalificeren waarvoor Henri?
Dat ik tegen een waanzinnige bewakingsstaat ben omdat het helemaal niets brengt?
Domheid is je ogen sluiten voor geheime diensten die volledig verzaken omdat ze zich vastgebeten hebben in een idee dat de dataverzamelwoede kan helpen dit soort aanslagen te voorkomen.
Praat eens met gepensioneerde medewerkers van een geheime dienst, dan weet je wat er allemaal niet meer gedaan wordt dat de bevolking wellicht beter beschermt.
Jan : https://nl.wikipedia.org/wiki/Wet_van_Godwin
Ik reageer op je analyserend vermogen: Frankrijk verzamelt zoveel data maar is niet eens in staat om een aanslag te voorkomen, dus grote data verzamelingen werken niet.
Dat dat te kort door de bocht is weet je zelf.
Wat in Frankrijk gebeurt, toont dat het argument “terreurbestijding” om steeds meer privacygevoelige data te verzamelen niet valide is, die “terreurbestijding” heeft verzaakt.
De daders van de twee vorige aanslagen waren namelijk bekend vanwege hun extremisme.
Jij wil of kan dat niet begrijpen.