‘Geld verdienen met data, kun je daar een stukje over schrijven?’, zo vroeg mij de redactie. Toen kroop ik achter de pc en besefte ik dat er honderden paden zijn naar datagedreven rijkdom. We moeten dus selectief zijn.
Er zijn eerlijke en oneerlijke manieren om rijk te worden met data. Ik moet mij hier beperken tot de eerlijke, helaas. Dus geen sappige verhalen over datadiefstallen op grote of kleine schaal, zoals hackers die hele databases downloaden of baliekluivers bij een bank of een gemeente die tegen betaling waardevolle gegevens van mensen ‘printscreenen’. Hier ook niet het verhaal over een ict-bedrijf dat persoonsgegevens uitwisselt tussen overheidsorganisaties en deze vervolgens ook zelf te gelde maakt. Geen ruimte voor.
Initiële investeringen te hoog
Ook eerlijke manieren om rijk te worden met of van data zijn er legio. Daarom wil ik mij hier verder beperken tot de wereld van het ambachtelijke: analyse, ontwerp, consultancy en dergelijke. De wereld van dataproducten en -diensten laat ik liggen: de Googles, Facebooks Ubers, Tesla’s (straks), IBM’s (Watson), Amazons (clouddiensten) en – vooruit – Twitters. Hier zit natuurlijk het echt grote geld (niveau Quote 500-wereldwijd), maar alleen met een uniek killer-idea kom je daar nog tussen. En dan nog is het enige perspectief een snelle verkoop van je product aan een grote speler. Ik zie hooguit een enkeling de Nederlandse Quote 500 halen met een nieuw data-idee. De initiële investeringen zijn te hoog en de zakken van de grote partijen te diep.
Zelfs met deze focus zien we nog steeds vele, vele paden naar rijkdom en moeten we een moeilijke keuze maken. Gaan we voor het sexy werk in de nieuwe wereld van (big) sensordata en datagedreven machine learning (de nieuwe AI) of houden we het bij de oude wereld van administratieve data in organisaties? Ik kies voor het laatste. Hoewel ik er van overtuigd ben dat er fortuinen te verdienen zijn in de nieuwe datawereld, denk ik dat je voorzichtig moet zijn met hypes. Als de datagedreven/inductieve AI van vandaag een succes wordt, dan is dat bijvoorbeeld triest voor al die jongelui die in de jaren ’80 hun kaarten op de gefaalde regelgedreven/deductieve AI hadden gezet. Wees voorzichtig met hypes, wil ik maar zeggen.
Klassieke skills
Ik eindig dus in de hoek waarin ikzelf al dertig jaar mijn boterham verdien: oldschool administratieve, sterk gegevensintensieve applicaties. Nog steeds maken deze een groot deel van de software-infrastructuur van bedrijven uit, dus er gaat veel werk en geld in om. Dat deze wereld grotendeels los staat van de hippe big data en aanverwante toepassingen laat alleen maar zien hoe onrijp dat laatste veld nog is. Het extract van big data-analyses en -verwerking zal op een dag moeten worden geïntegreerd met reeds bestaande, klassieke, administratieve toepassingen en dan zijn het grotendeels klassieke skills die er toe doen.
Ik denk echter niet dat integratie met big data de reden is waarom de oude datawereld zo’n goede plek is voor een dik belegde boterham. Wat deze wereld aantrekkelijk maakt is de extreme verwaarlozing gedurende de laatste twintig jaar, die op enig moment niet meer te handhaven zal blijken. De verwaarlozing begon in de jaren ’90 met de objectoriëntatie (OO) en datawarehousing-hypes. Door OO verschoof de focus van ontwikkelaars en ict-opleidingen van de wereld van data naar die van algoritmen. Het gevolg is nu dat er onder de 35 weinig ict’ers rond lopen die werkelijk verstand hebben van gegevensmodellering en gegevensbankontwerp. En de boodschap van datawarehousing paste daar perfect bij: ‘zet voor nieuwe behoeften maar iets nieuws naast die oude databases’. Het gevolg is in veel organisaties een enorme wildgroei van (kopie)data en overlappende administratieve waarheden. De situatie is ondertussen zo ontspoord dat er organisaties zijn – ik denk aan de Belastingdienst – die meer geld steken in het zoeken naar patronen in big data dan in het handhaven van de regels waaraan hun eigen bedrijfsdata moeten voldoen. Best wrang.
Scrummer is jong
Recentere ontwikkelingen als Scrum en Agile maken de zaken er op datagebied ook niet beter op. Gegevensmodellen en databases zijn als stopverf: je moet ze in één keer goed opzetten, want zodra er eenmaal software op is ontwikkeld worden aanpassingen peperduur. Het effect in de praktijk van Scrum en Agile is dat er nog meer dan vroeger om ontwerpfouten heen wordt geprogrammeerd, terwijl de gemiddelde Scrummer jong is en daarmee toch al weinig kaas heeft gegeten van data, datamodellen en databases.
Er valt voor datageoriënteerde ict’ers in de hoek van de klassieke administratieve systemen dus een heel goede boterham te verdienen en dat dan ook voor de komende dertig jaar. Wie dit carrière-advies volgt, hoeft de komende tijd niet te rekenen op de glamour die de big data-ict’ers over zich heen krijgen, maar een vast plekje in de Quote 50.000 is ook wat waard.
Dit artikel is ook gepubliceerd in Computable Magazine 1 van januari 2017.
Ik heb jarenlang mijn geld verdiend door tools te maken die marketeers weer konden gebruiken voor hun campagnes. Door te kijken naar bijvoorbeeld de vervangingscyclus van brillen, of analyseren van proefritten versus garage bezoek, of het koopgedrag online versus die in de winkel en daarop kunnen spelen.
Met data van transacties valt altijd geld te verdienen, want de juiste boodschap op het juiste moment is altijd waardevol, zeker als je een instrument meeneemt die het effect van een actie kan onderbouwen met feiten.
Niettemin leidde dat inderdaad naar welvarend, niet als loaded. Met data kun je meer geld verdienen dan zonder data.
En ben met je eens dat veel ontwikkelaars databases (steeds vaker niet relationele data) als bitbuckets zien en daarmee heel veel mogelijkheden verliezen of een enorme technische schuld mee opbouwen.
Vooral die laatste zin René, daar kan ik zeker mee leven 🙂
Mooi onderscheid wordt hier gemaakt tussen datagedreven/inductieve AI en regelgedreven/deductieve AI. Het heeft wel wat van de tegenstelling tussen empirisme en rationalisme die kenmerkend was voor het tijdperk van de Verlichting (of Moderne tijd) en tegenwoordig nog altijd aan de orde komt in boeken over wetenschapsfilosofie.
In mijn optiek heeft de datagedreven AI van nu net zo weinig kans van slagen als de – inderdaad gefaalde – regelgedreven AI van 30 jaar geleden. De enige vorm van AI die wel gaat werken zal servicegedreven zijn.
Een optimale klantervaring krijg je niet met het doorrekenen van grote hoeveelheden data met allerlei rekenmodellen; wel met een soepel werkende selfservice-architectuur.
En is selfservice niet het doel van de veelbesproken zogenaamde digitale transformatie? Het implementeren van selfservice levert een aanzienlijke besparing op doordat veel werkzaamheden niet meer worden uitgevoerd door bedrijfsmedewerkers, maar door de klant zelf. En dan is het opvallend dat in al die artikelen over digitale transformatie niet wordt gerept van selfservice.
Blijft over de vraag: hoe sluit je selfservice adequaat aan op “oldschool administratieve, sterk gegevensintensieve applicaties”?