Het is begonnen met SaaS, gevolgd door cloud en social media en grootschalig wetenschappelijke (gezondheid en ruimtevaart vooral) onderzoeken. Big data is geboren, big data neemt een enorme vlucht, big data is een evolutie in de geschiedenis…
Zowel de huidige telecomconsumenten als de ict-ontwikkelingsmarkten gaan straks net iets anders functioneren dan wat wij gewend zijn. De klassieke manier van applicaties bouwen, data beheren en opslag worden geschiedenis. Alles wordt snel, eenvoudig, voor iedereen bereikbaar en visueel. Alles draait om van tevoren te weten wat straks aan consumenten geboden wordt.
Het motto: Business In Future
Hardwareproducenten willen kleinere, zeer snelle dataopslag en processors maken met nog minder investering voor de consumenten. Dat komt doordat elk jaar data die opgeslagen is 40 procent groeit. Wat zal dat dan straks voor mkb’ers en grotere bedrijven betekenen? Of voor bedrijven die direct te maken hebben met partijen zoals Bol.com, Wehkamp, luchtvaartmaatschappijen, telecombedrijven, et cetera?
Wij zullen ons moeten voorbereiden op deze aankomende innovatie, ons bewust zijn van wat voor soort bedrijfsdata wij thuis hebben en wat die data doet voor de visie en strategie van het bedrijf en wat dit betekent binnen gewenste investeringsgrenzen. Aan de ene kant willen wij meer en meer kwalitatief goede data uit de enterprise gegevens halen, aan de andere kant wil men maatregelen nemen voor de razendsnel groeiende dataopslag.
Iedereen heeft het er tegenwoordig over dat big data een hype wordt, maar men weet weinig over big data. In enkele woorden is big data alles wat gedigitaliseerd is. Dat kunnen bijvoorbeeld simpele supermarktboodschappen zijn, opnamen met de securitycam, de sales lead die via bedrijfswebpagina gegenereerd is of gegevens uit social media. Maar waarom is het ‘big’?
Dit is omdat ongestructureerde data wordt gekoppeld aan gestructuurde data. Dataopslag groeit per jaar meer dan 40 procent op dit moment. Dat betekent dat beheren van die data of processing van die data ook duurder wordt. Ook zijn grote data sets qua volume te groot om binnen traditionele datastorage met processors te behandelen. Met de nieuwe big data-technieken zijn massadata in stukjes geknipt en geclusterd, zodat de dataprocessnelheid is verbeterd en data-analytics als geheel is geïmplementeerd.
Een traditioneel enterprise datawarehouse zal als big data-oplossing 2,5 keer meer datastoragekosten met zich mee brengen. Real time analysis kan bereikt worden, zodat enterprises ook realtime acties kunnen ondernemen. Hun klanten kunnen ook profiteren van predictive analytics. Als er bijvoorbeeld een storm verwacht wordt, beïnvloedt dat de datakwaliteit in datatransmissie bij betalingen. Dat is van belang voor banken. Daarnaast krijgen bedrijven meer inzicht in hun business en willen ze de datasilo tussen de businessafdelingen afbreken. Zodoende krijgt het C-level management breder inzicht in de zaken, terwijl businessafdelingen nog betrouwbaardere gegevens ontvangen. Zodoende wordt nog meer Ddata breder gevisualiseerd.
Wat zal dat straks voor bedrijven betekenen? Het management moet inzicht krijgen in datatransparantie, moet data kunnen relateren, moet data veilig kunnen stellen voor binnen en buiten de enterprise. Het allerbelangrijkste is om consumenten tijdig te informeren over het productieportfolio, dynamische prijsstelling en het verbeteren van de klantenservice.
Voor het grote publiek betekent dit bijvoorbeeld op maat aangemaakte medicijnen, extra veilig autorijden, etc., maar je moet wel blijven opletten dat je privégegevens en productvoorkeur niet op internet bekend is. Voor de technologie betekent dit dat de snelheid in wetenschappelijke analyses en onderzoeken enorm toeneemt. Project die voorheen in meerdere jaren gerealiseerd werden, kunnen nu binnen enkele dagen afgerond worden, zo ver is het technologie.
Om tot predictive analytics te komen, zijn er binnen big data analytics twee methoden samengevoegd. Om patronen te vinden heb je machine learning code en data mining. In machine learning code worden ‘bekende’ waarden en patronen in data gezocht. Deze worden wat vaker in wetenschappelijke onderzoeken gebruikt, zoals die van Cern. In data mining worden ‘onbekende’ waarden en patronen gezocht, proberen we nieuwe waarden te creëren uit onbekende of zoeken we oorzaken voor bekende events en patronen.
Business intelligence is een onderdeel van big data, maar bi is niet voldoende om grootschalig data te analyseren, definiëren of realtime analytics te kunnen doen. Ook kan je niet realtime acties ondernemen tot de einddeur bij de klant. Met predictive analytics van big data kunnen dit soort zaken wel gemeten en zichtbaar gemaakt worden.
De grootste handicap in big data is het gat tussen businessmanagers en ict. Duidelijke big data-strategieën moeten opgesteld worden, er moet geanalyseerd worden welke data in het bedrijf aanwezig zijn en moet de hoeveelheid van die data voldoende kwalitatief zijn voordat er met big data-projecten begonnen wordt.
Soms kan het zijn dat het businessdoel van het bedrijf niet in big data-mogelijkheden past. Dan zijn er concrete targets nodig vanuit de business. Die kunnen vanuit ict worden ingevuld met aanvullende requirements-analyses.
Meer over dit onderwerp is te lezen (in het Engels) op http://www.facetobusiness.com/bdt/images/arzubbigdatawhitepaper.pdf.
Leen,
ik benoem wat betreft predictive analysis altijd 1 uitspraak:
Resultaten uit het verleden bieden nog geen garantie voor de toekomst. 🙂
@Leen: zeer relevante en knappe reactie. Die steek ik in mijn zak! Je verwoord het erg praktisch en veelzeggend.
Niettemin geloof ik in de waarde van data. Een zeer leuke film gebasseerd op echte gebeurtenissen is Moneyball met o.a. Brad Pitt. Het gaat dan wellicht niet om big data, maar wel om het samenbrengen van gegevens en deze combineren, de predictive value daarvan was zo groot, dan de gehele industrie is verandert in een tijdbestek van 2 jaar.
Ook de data die de Nederlandse honkballers gebruiken met analyse zijn voor een deel heel ongestructureerd in die zin dat ze niet in relationele tabellen passen.
Het onderbouwt in ieder geval de casus voor het gebruiken van data.
Maar net zoals search engines nog vrij dom zijn, duurt het nog jaren voordat big data “easy” word. En daarin verschilt het dus behoorlijk van bijvoorbeeld cloud computing welke wel praktisch toepasbaar is.
Nanodata lijkt me overigens anders dan big data, niettemin leuk om te lezen, thanks!
Reza ben het eens met je reactie van 09:53.
Sorry, maar in dit artikel (en ook het whitepaper) tracht ik tevergeefs de inhoud van de reclame te scheiden. De stukken wekken sterk de indruk niet zozeer vanuit een inhoudelijke als wel vanuit een communicatie invalshoek geschreven te zijn, getuige het dominate gebruik van (overigens slecht gedefinieerde) buzzwords.
Zowel het artikel als het whitepaper ademen ook de sfeer van ‘big data is a lazy incompetent’s delight’, d.w.z. u hoeft niet meer zelf na te denken of kennis te hebben, automaten en ‘big data’ kunnen dat beter en zullen dat voor u doen. Het moge duidelijk zijn dat het niet zo werkt.
Zelf houdt ik mij beroepsmatig bezig met data-analyse, en zie ik in toenemende mate mensen in deze valkuil trappen: ingewikkelde modellen (die zij niet snappen maar als black box hanteren) op grote hoeveelheden ongerichte data loslaten. Door hun complexiteit hebben dat soort modellen prima in-sample performance (d.w.z. op de trainingsdataset), en slechte out-of-sample performance door ondeugdelijke modellering (d.w.z. niet beter en soms veel slechter dan een simpel model plus wat gezond verstand). Resultaat: verloren tijd.
Verder zie ik bij bedrijven veel meer als bottleneck een gebrek aan deugdelijk inzicht in hoe hun eigen bedrijf en de wereld om hen heen werken (de meeste bedrijven zijn helemaal niet ‘excellent’). Dat komt niet door gebrek aan data) maar onvermogen om hun reeds beschikbare (gestructureerde) data te analyseren om daaruit bruikbare informatie te peuren. Een tweede bottleneck is hoe goede informatie te gebruiken en daadwerkelijk te gelde te maken.
Big Data is geen kwaliteit op zich. Data is informatief, of is dat niet. En jawel, proceslogs genereren grote hoeveelheden data die soms wat zinnigs kunnen zeggen over individueel gedrag, wat dan weer middels gerichte, zinnige vragen tot resultaat zou kunnen leiden. Daar ligt de crux. Dat het daarbij soms om ‘Big’ data gaat is bijzaak.
Rekenkracht en data hoeveelheid (wel of geen ‘Big Data’) is niet beslissend. Commercieel inzicht, ondernemingsgeest, marktkennis, daadkracht, en helder nadenken zijn dat wel.
Ik begrijp jullie frustratie, misschien willen jullie experten huren, zodat de gratis Business Service die jullie in publiek opinie artikel of in gratis Whitepaper verwachten, kan geregeld. Ik heb geen reclame nodig trouwens. Ik ben een van de eerste die over Big Data in Nederland geroepen is… Ik zit regelmatig te brainstormen met Nederlandse & internationale Big data experten, Conference organizators, AI wetenschappers, of Entrepreneurs.
Ik bouw zelf niks, ik ben Business Strategy & Visie ontwerper die gebaseerd is op Big Data.
In een publiek opinie artikel of in een Gratis Whitepaper, krijg jij geen Gratis Business Service. in een Whitepaper krijg je zoiso geen gratis analysis, wat ik al extra gestopt heb.
Ik organiseer trouwens Big Data Security Training in October, er komt een echte ervaarde Big data Expert uit Silicon Valley om les te geven, als echter jullie willen iets leren, kunnen jullie jullie inschrijven…Daarnaast, organizeer ook een Internationaal Big Data conference met een Europese Event organisatie in Istanbul maar dat is beetje ver om te reizen voor jullie… :)…