We leven tegenwoordig in een data tsunami. Uit recent gepubliceerde cijfers van IBM blijkt dat 90 procent van ‘s werelds data in de afgelopen twee jaar is gecreëerd. En het ziet er niet naar uit dat deze datagroei de komende tijd stopt.
Simpel gezegd is deze situatie als volgt ontstaan. Tot voor kort bewaarden consumenten alleen mp3’s en foto’s op hun computers. Een mp3 bestand neemt gemakkelijk 5MB in beslag (en een heel album zo’n 80MB), een gemiddelde foto is ongeveer 3 tot 4 MB groot. Maar tegenwoordig downloaden en bewaren mensen ook films die gemiddeld 1GB zijn. Verder is het met veel apparaten, zoals smartphones en tablets, mogelijk HD-videoclips af te spelen die gemiddeld 300 MB in beslag nemen. Dit is een groei van honderd tot tweehonderd keer de oorspronkelijke storagebehoefte.
Bedrijven hebben ook een explosie van datagroei doorgemaakt, veroorzaakt door een aantal factoren waarvan de nieuwe regelgevingen rondom het bewaren van data de grootste oorzaak is. Het overschot aan data is opvallend. Volgens Gartner wordt 70 procent van de opgeslagen data in een gemiddeld bedrijf niet binnen een jaar opnieuw bekeken. Desondanks blijft het opslaan van nog meer data het noodgedwongen antwoord van bedrijven op de vraag naar een oplossing van het storageprobleem.
Zoals bij veel dingen wordt de waarde van data steeds minder naarmate de tijd vordert. Veel organisaties proberen hier op in te spelen door oudere data over te zetten naar een goedkopere vorm van storage. Een onverwachtse complicatie bij deze migratie is dat het vaak goedkoper is om data langer dan nodig te bewaren, dan het te verwijderen. Het uitroeien van data blijkt soms economisch onverantwoord vergeleken met het behoud ervan.
Een bedrijf was bijvoorbeeld van plan bijna 1PB (5 procent van de opgeslagen data) te verwijderen, wat een miljoen dollar aan legacy storagekosten zou besparen. Toch bleek bij nader onderzoek dat dit betekende dat vijftien mensen vier maanden lang aan dit project moesten werken en de kosten uiteindelijk bijna net zou hoog uit zouden komen als wanneer de data bewaard zou worden.
Als de kosten van behoud en verwijderen even hoog zijn, is de verleiding om data te bewaren heel groot, alleen al omdat het bedrijf geen middelen en werknemers hoeft in te zetten voor het verwijderproces. Die werknemers kunnen worden ingezet op andere projecten. Daarbij komt het geruststellende idee dat kostbare data niet per ongeluk wordt weggegooid.
Het onbedoelde gevolg van deze situatie is dat bedrijven het storage probleem aanpakken door nog meer opslagruimte in te kopen voor de groeiende hoeveelheid data die ze creëren en de groeiende hoeveelheid data die ze willen behouden. Het probleem voor velen is dat, hoewel de kosten voor het behoud en verwijderen van data ongeveer gelijk zijn, ze geconfronteerd worden met continu groeiende kosten.
In de huidige situatie ligt de druk bij bedrijven om hun overbodige storage te verkleinen, maar te vaak zijn de kosten te hoog om dit te realiseren met legacy storagesystemen. De beste manier om van het storageprobleem af te komen is om te kijken naar een oplossing waarbij geen 'hardware-toeslag' wordt geheven, wat gebruikelijk is bij de aanschaf van legacy systemen. Bedrijven kunnen dan in alle vrijheid kosteneffectieve industriestandaard producten toevoegen naast hun bestaande storage-oplossingen.
Een mogelijke oplossing komt uit de OpenStorage hoek. Hiermee kunnen organisaties loskomen van merkgebonden hardware en software. In veel gevallen kunnen bedrijven 70 to 80 procent kostenbesparing realiseren zonder daarbij compromissen te sluiten op het gebied van dienstverlening.
Tot slot is OpenStorage geschikt voor heterogene omgevingen en kunnen bedrijven zo storagecapaciteit toevoegen en beheren bij hun opslagbehoeften. Zullen de huidige klantbehoeften de adoptie van OpenStorage in een stroomversnelling brengen? Wie het weet, mag het zeggen.
Dat we van Gigabytes, via Terrabytes nu in Petabytes gaan denken heeft vooral te maken met de lage kosten van opslag. Het niet besparen van 1 miljoen in, naar ik aanneem vaste kosten omdat de projectkosten hoger zijn lijkt me een voorbeeld van ‘penny wise, pound foolish’ Op die manier zal het van kwaad tot erger gaan want als er geen rem op zit dan wordt groei al snel ongebreideld. Gaat OpenStorage dit probleem oplossen of haalt deze alleen een vendor-lock weg?
Bezuinigen door jarenlang niet op te ruimen … doet me denken aan die programma’s op tv over vreemde vogels met een huis vol zooi. En juist die kunnen nooit iets vinden 🙂
Jammer dat dit artikel volgens mij niet het beheerprobleem oplost. edekkinga wijst hier ook op. Gewoon een goedkope extra container erbij en de boekhouder is weer blij met de kosten dat jaar.
Leuk artikel. De groei van data is duidelijk, echter het probleem is mijn ziens heel anders. Om met een “Buzz-word” te spreken “dataclassificatie”. Iets dat weinig bedrijven voor elkaar krijgen. Wie is verantwoordelijk voor de data en wie durft verantwoordelijk te zijn voor data. Hierdoor bewaren we data maar eindeloos. Just in case! Uit rapporten komen vele getallen (70-80%) die erop duiden dat de meeste data na creatie niet meer opgevraagd wordt. Maar wat van de data is nog waardevol om te bewaren en wat niet? Dit blijft een groot probleem.
Op dit moment leveren alleen technieken een “tijdelijke” oplossing voor het probleem. Technieken als archivering, Hiërarchisch Storage Management op basis van policies en data deduplicatie. Uiteindelijk blijft data maar groeien.
Daarnaast lost in mijn ogen OpenStorage dit probleem ook niet op. OpenStorage zorgt volgens mij alleen voor een open standaard op het gebied van Storage waardoor vendor lockin beperkt wordt. Dit levert veelal een vorm van besparing als het gaat om beheer en migratie. Echter het is de vraag hoe leveranciers OpenStorage gaan adopteren.
De groei van data is natuurlijk iets waar iedereen zich van bewust moet zijn en vaak al is. Alleen lijkt mij dat niet alle aangehaalde voorbeelden op een storage oplossing geplaatst (moeten) worden. Op enkele uitzonderingen daar na gelaten.
Het classificeren van data door middel van automatic storage tiering is een techniek welke steeds meer gebruikt wordt en een positief effect op de kosten heeft. Ook zal het dedupliceren van data aan de voor of achterkant vaak een positief effect op de kosten en omvang hebben.
Ook door goede en duidelijke spelregels voor je gebruikersorganisatie op te stellen beperk je de wildgroei van data. Denk hierbij aan quota’s , policies etc. Bepaalde data (MP3’s, filmpjes etc. ) wil je gewoon niet op je centrale storage oplossing hebben.
Open Storage lost in mijn ogen alleen een vendor lockin op, maar beperkt niet de wildgroei van data. Echter hebben veel van de storage leveranciers al migratie tooling beschikbaar. Ook van smaak A naar smaak B. Dus ik mis even de toegevoegde waarde en de unieke functionaliteiten.
Ook is storage virtualisatie een manier om verschillende smaken storage naast elkaar te kunnen blijven draaien en een vendor lockin te voorkomen.
Al met al zijn er dus meerdere “storage paden” die naar Rome leiden.