2014 had grote storage ontwikkelingen te bieden. Computable-experts zien vooral software defined storage (sds) en big data als belangrijke trends voor 2014, die bovendien in 2015 door zullen zetten.
Zo staat software defined storage (sds) al enkele jaren bij de analisten in de belangstelling als een belangrijke trend voor de toekomst, zegt Jasper Geraerts, business manager storage Benelux bij Red Hat. Maar zo ver weg is deze trend niet, meent hij. ‘Als ik terugblik op het afgelopen jaar, zie ik dat er in 2014 al echt concrete stappen zijn genomen op het gebied van sds. In steeds meer markten zien we dat sds als serieuze oplossing wordt bekeken. Bovendien hebben de eerste implementaties al plaatsgevonden.’
Volgens Geraerts blijkt Openstack een belangrijke aanjager voor sds te zijn. ‘Klanten die de voordelen van een geautomatiseerd scale-out platform zoals Openstack zien, beseffen zich dat traditionele storage in silo’s de adoptie van nieuwe workloads in een dergelijk platform kunnen tegenhouden.’ Volgens Geraerts is de keuze voor een 100 procent open source-systeem voor velen een logische gebleken. ‘Het biedt ze namelijk enerzijds keuzevrijheid op hardware-gebied en anderzijds bieden open standaarden keuzevrijheid voor nu en in de toekomst.’
Big data
Volgens Geraerts werden dit jaar veel resources verbrand aan het opzetten van Hadoop-, data ingestion-, integratie- en business intelligence (bi)-projecten in de hoop dat het business cases zal opbrengen. ‘Big data-initiatieven verplaatsen zich van de technische naar de businesszijde van organisaties. De ervaring leert echter dat deze benadering weinig succes oplevert en zeker niet op de korte termijn.’
Bovendien sprak men de afgelopen jaren wel veel over big data, maar was het onduidelijk wat er nu precies mee werd bedoeld, meent Tom van Maanen, managing consultant bij Capgemini. ‘Het ging over ‘veel data’, maar waarom je nu voor ‘veel data’ een aparte oplossing nodig had, was onduidelijk. Per slot van rekening zijn er allerlei standaard oplossingen voor ‘veel data’. Onze databases kunnen veel data aan, de file servers kunnen veel data bevatten; kortom: waarom is big data iets aparts, dat met standaard tooling niet te behappen is?’
Het afgelopen jaar is volgens Van Maanen wel duidelijk geworden waarom big data echt iets anders is dan enkel ‘veel data’. ‘Big data gaat over zoveel data, dat we niet meer genoeg hebben aan één server om die data op te plaatsen. We hebben in het geval van big data een serie van tientallen of zelfs honderden servers nodig om die data op te zetten, omdat het volume echt ‘big’ is. We praten dan over honderden Terabytes aan data.’
Nieuwe technieken
Ook vindt Van Maanen dat het duidelijk is geworden dat we ook nieuwe technieken nodig hebben om die honderden servers aan te sturen. ‘We moeten bijvoorbeeld data meerdere keren opslaan, omdat we bij honderden servers serieus rekening moeten houden met de uitval van een server. We moeten ook denken aan parallel verwerken van die data, omdat we de rekenkracht van alle servers nodig hebben om een query actie te ondernemen. Maar die nieuwe technieken willen we graag inpassen in onze bekende manieren van werken. In traditionele databases werken we graag met SQL. Het is ook niet meer dan logisch dat we big data graag met SQL willen benaderen. Op dit moment zijn er dan ook allerlei initiatieven om big data met behulp van SQL te benaderen.’
In het komende jaar gaat men die nieuwe technieken volgens Van Maanen gebruiken om in diverse organisaties echt met big data aan de slag te gaan. ‘We hebben het dan over de analyse van gegevens die we tot voor kort nog niet in de analyse betrokken.’ Als voorbeelden noemt hij de analyse van sensordata, de analyse van rfid-gegevens en de analyse van cdr’s. ‘Kortom, allerlei soorten van data die tot voor kort nog niet geanalyseerd konden worden vanwege de omvang.’
Ook Geraerts denkt dat er in 2015 anders aan de slag zal worden gegaan met big data. Zo verwacht hij dat er enterprise big data stacks zullen worden geleverd, die use case driven zijn, snel geïmplementeerd kunnen worden en scale-out zijn, zodat nieuwe use cases snel kunnen worden toegevoegd. ‘Business owners willen immers zo snel mogelijk resultaat, aangezien het gaat om het behouden of verwerven van competitief voordeel.’
“We praten dan over honderden Terabytes aan data.”
Er zijn maar een handvol bedrijven/instellingen in Nederland die zoveel data hebben, de rest heeft hooguit enkele terabytes aan data. En daarvoor heb je geen nieuwe technologie nodig om dat te analyseren, de gemiddelde RDBMS kan hiermee prima uit de voeten op een simpel servertje.
Sensor data, rfid-gegevens, het is allemaal zeer goed gestructureerde data die al sinds jaar en dag eenvoudig met een database kan worden geanalyseerd. Maar wanneer je dat niet doet, dan gebeurt er ook niks. Big data werkt vooral goed op ongestructureerde data en data uit totaal verschillende bronnen. Zodra het gaat om gestructureerde data is een big data oplossing niet de ideale oplossing: Een RDBMS is gemaakt voor analyse van gestructureerde data!
Big data wordt vooral gebruikt als excuus om nieuwe technologie naar binnen te fietsen en om het falen van analyses te verdoezelen: We hebben nog weinig ervaring met big data, maar volgende maand….
En dan alle data terugvoeren naar hapklare brokken. Maar het probleem is vaak dat de analist niet weet welke data het management nodig heeft en het management niet welke vraag ze kunnen stellen aan de analisten.
Ergo.. Als bedrijven al niet om kunnen gaan met kleine hoeveelheden data, wordt het dan beter met grote hoeveelheden?