De afgelopen jaren zien we dat het bedrijfsbelang steeds belangrijker wordt bij het aanschaffen en implementeren van nieuwe of aanvullende informatietechnologie. Denk bijvoorbeeld aan agile ontwikkelen of discussies over sourcing en cloud computing. Maar bij big data lijken veel organisaties – helaas gesteund door it-leveranciers en systeemintegratoren – terug te vallen naar de tijd dat technologie allesbepalend was.
Erg veel nadruk ligt er op snelheid en op de technologie die dat mogelijk maakt, zoals een in-memory database. Maar technologie op zichzelf is eigenlijk niet belangrijk. Het is namelijk altijd wel mogelijk om een technische oplossing voor een uitdaging te bouwen (als geld geen rol speelt) of om rapportages tien, honderd, zelfs duizend maal sneller op het bureau te krijgen. Maar snelheid doet er alleen toe als er een bedrijfsbelang is dat dergelijke oplossingen nodig heeft.
Het zou daarom op de eerste plaats veel minder om snelheid en technologie moeten gaan. De nadruk moet juist liggen op het bedrijfsbelang. Op die manier kunnen organisaties vooraf bepalen waarom een bepaalde in-memory-technologie het beste bij de business past. De organisatie kan die – op de business toegespitste – verwerking en analyse van enorme hoeveelheden data vervolgens naar wens toepassen en zodanig op de concurrentie vooruit lopen. De big data-benadering vanuit bedrijfsperspectief biedt het voordeel dat uitdagingen van de organisatie al bekend zijn, en de in-memorytechnologie direct kan worden ingezet om die uitdagingen aan te pakken.
Toch zien we in de praktijk te vaak dat de technologie de boventoon voert. Een bedrijf begint dan meteen met een ‘Proof of Concept’. Als het resultaat inderdaad laat zien dat de verwerking en analyse van veel gegevens sneller gaat (en dat is vrijwel altijd het geval), krijgt de betrokken manager een hartaanval als hij ziet welk prijskaartje hangt aan de implementatie van de oplossing. Het vreemde is dat de koop niettemin toch doorgaat en vervolgens de zoektocht begint naar het bedrijfsprobleem waarvoor de technologie een oplossing is.
Bezint eer gij begint
Als een volgende keer weer een verkoper van ‘snelle oplossingen’ op de stoep staat, doe je er wijs aan hem de deur te wijzen. Ga vervolgens op zoek naar een partner die snapt welke technologieën de ronde doen, maar eerst moet je met de direct betrokkenen rond de tafel gaan zitten om helder te krijgen hoe de bedrijfsprocessen in elkaar steken en wat de bedrijfsdoelen zijn. Pas dan is het mogelijk een business case op te stellen waarin de snellere verwerking en analyse van grote hoeveelheden data duidelijke voordelen laat zien voor de organisatie.
Grappig; in Mike zijn profiel staat dat hij geen buzz woorden gebruikt, in het artikel echter zie ik: Big data, Agile en in-memorytechnologie.
De volgende tegenstrijdigheid is deze: Technologie doet er niet toe, maar vervolgens gaat het stukje vooral over technologie en wordt in-memorytechnologie vier keer genoemd.
Dan als laatste: Ik ken T-Systems als een organisatie die veelal Oracle inzet EN een prijskaartje heeft waar je u tegen zegt.
In mijn ogen bereikt het artikel dus precies waar het voor waarschuwt: Bezint eer gij begint
Mike,
Vreemde titel aangezien ik in de veronderstelling was dat als we geen technologie hadden we ook nooit van big data gehoord hadden. Maar het kader onderaan maakt al duidelijk dat de ruim 300 woorden alleen maar bedoeld zijn als verkooppraatje voor het in kaart brengen van de businessprocessen, het maken van statische plaatjes die al achterhaald zijn voordat de inkt droog is. Nieuwe trends als Cloud Computing, virtualisatie, mobiliteit, sociale media, enzovoort hebben dan ook een verstorende werking op de gebruikelijke raamwerken en daarom worden ze gewoon genegeerd. De stuisvogel lijkt hier dus zijn kop in het zand te steken om de mol te vertellen dat het prachtig weer is.
Want bij Big Data gaat het inderdaad niet alleen om technologie maar deze is uiteindelijk wel nodig om al die bits en bytes te transporteren, op te slaan en om tot informatie te verwerken. De hoeveelheid door machines gegeneerde data begint zelfs de door mensen gemaakt data in te halen als gevolg van toenemend gebruik aan sensors en (bewakings)camera’s en zorgt dus ook weer voor allemaal nieuwe businessprocesssen. En bij Big Data – met name als het gaat om privacy – is het soms beter om het proces niet duidelijk in kaart te brengen want dat leidt alleen maar tot kamervragen;-)
Bij het lezen had een vergelijkbare reactie als Henri en Ewout. De kunst bij snel veel data verwerken is parallel werken en direct bij de data te kunnen. Als je dat doet heb je per processor (of core) flink wat geheugen nodig maar op deze wijze kun je in één keer data laden en bijna lineair schalen waardoor price/performance bekend is. Tot zover de techniek die dus wel degelijk cruciaal is maar ook wezenlijk anders dan bij het werken met een ‘klassieke database’.
Als je bovenstaande kunt uitvoeren is het mogelijk om na te gaan denken welke vragen je beantwoordt wilt hebben en welke data je zou moeten verwerken. Als je het simpel houdt ga je klassiek BI op deze manier uitvoeren waardoor een kubus on the fly gemaakt kan worden en ook nog eens zoals je zelf wilt in diverse varianten. Ook is het mogelijk naar correlaties te zoeken die je eerst niet zichtbaar kon maken. Of krijg je uitkomsten – bewust o onbewust – waar je niet naar op zoek was.
Vervolgens komt het echte werk: exploreren en deep analytics en dat vereist heel andere vaardigheden. Om dit te kunnen is de mix nodig van business kennis en hoe om te gaan met deze data. Dat is een totaal andere manier van werken. Het gevaar van alleen bedrijfsprocessen en bedrijfsdoelen bespreken is dat je eindigt waar we een paar jaar geleden al stonden en helemaal niets slims doet met al die data.
De vierde ‘V’ vaak gebruikt bij Big Data is “Value”. Welke waarde haalt een organisatie uit Big Data. Als die er niet is, begin niet aan een concreet project.
De meeste organisatie zijn nog steeds zoekende naar de waarde van Big Data, dus zullen ze kleine projectjes opzetten om dit te onderzoeken. Gelukking voor hen, bestaat er uitermate veel opensource om dit te kunnen uitvoeren, zonder eerst enorme investeringen te doen.
Daar ik zelf uit de In-memory kant zit, hebben wij diverse klanten waar “snelheid” (Velocity) een enorme belangrijk requirement vormt, met name in Finance, Trading, Telco and Media/Entertainment. Het verschil tussen een seconde en een milli second of een milli en een micro seconde is cruciaal voor de business. Dus de use cases zijn er zeker.
Aangaande het prijskaartje. Ja, die kunnen steving zijn met In-memory, maar wederom, als de business case er is (ROI), moet dit zeker haalbaar zijn.