Aangezien het dagelijks leven steeds meer online plaatsvindt, is het niet gek dat bedrijven ieder jaar meer data krijgen en creëren. Maar de feitelijke big data-vraag is: zijn bedrijven zodanig uitgerust dat hun it-infrastructuur overeind blijft bij een toename van de hoeveelheid data, of lopen zij het risico sneller ten onder te gaan dan de Titanic?
Veel bedrijven zijn tegenwoordig gebouwd op een hub van data die de hele it-infrastructuur bestrijkt. Met de enorme hoeveelheid gegevens die gegenereerd wordt, is het van cruciaal belang dat deze infrastructuur in staat is snel te schalen om tegemoet te komen aan de vraag. Hierbij heeft virtualisatie een essentiële rol gespeeld door de resources van fysieke servers te maximaliseren tegen relatief lage kosten.
Kostenbeheersing
Virtualisatie biedt bedrijven de mogelijkheid om met één druk op de knop de serverinfrastructuur zowel op- als neer te schalen. Vanuit het perspectief van big data is dit gunstig omdat de kosten van het draaiende houden van de infrastructuur zo beter beheerst kunnen worden. Ter vergelijking: stel je voor dat een verlader vanwege een grote vracht moet investeren in nieuwe voertuigen en vervolgens tot de ontdekking komt dat deze na de klus niet meer nodig zijn. Voor bedrijven is het van belang dat zij hun it-infrastructuur beter kunnen beheren, zodat zij geen overbodige investeringen doen die hun bedrijf niet ten goede komen.
Minimale downtime is cruciaal voor ieder bedrijf. Dit geldt des te meer voor big data in het geval van een it-storing. Echter, veel bedrijven denken hiervoor te volstaan met het maken van back-ups. Het proces van serverreplicatie omvat, in tegenstelling tot gewone back-up, het kopiëren van data naar productiestandaard hardware, zodat het in geval van een storing direct online kan worden gezet.
Het onderzoek Virtualization Data Protection 2011 onder vijfhonderd cio's benadrukt enkele grote obstakels voor serverreplicatie, zoals de hoge kosten van hardware en replicatiesoftware en de complexiteit ervan. Het onderzoek laat echter zien dat bedrijven die slechts 26 procent van de bedrijfskritische servers repliceren in het geval van een storing al tot gemiddeld 417.391 dollar per uur aan kosten kunnen besparen. Desalniettemin kan de overige 74 procent van de niet-gerepliceerde servers bedrijven tot wel 436.189 dollar per uur kosten.
Reddingsboei
Serverreplicatie is noodzakelijk voor bedrijven die dagelijks grote hoeveelheden bedrijfsdata genereren. Het kan dienen als ‘reddingsboei' wanneer zij geconfronteerd worden met een systeemstoring. Door het maken van snapshots blijven documenten – zelfs wanneer een document continu wordt bijgewerkt – behouden wanneer de server onverwachts uitvalt. Door het gebruik van virtualisatie hebben bedrijven de mogelijkheid om meer bedrijfskritische data te repliceren. Er passen vele virtuele machines op een server en elke virtuele machine bestaat uit een enkel bestand dat afzonderlijk geback-upt en teruggehaald kan worden. Hierdoor is het veel eenvoudiger en efficiënter om een gerepliceerde omgeving te onderhouden en kan deze hersteld worden wanneer dat nodig is.
Omdat bedrijven grote ambities en doelstellingen voor de toekomst ontwikkelen, hebben zij de groeiende behoefte om meer data te genereren om hun doelen te bereiken. Daardoor doen bedrijven er goed aan virtualisatie te implementeren en dit in te bouwen in hun replicatiestrategie. Dankzij virtualisatie hebben bedrijven meer ruimte om te bepalen hoeveel en wat zij repliceren: doordat virtuele machines teruggebracht worden tot enkele schijfbestanden zijn bedrijven in staat meer machines te repliceren binnen dezelfde ruimte waarin zij normaliter een X aantal servers zouden repliceren. Hierdoor kunnen zij de risico's binnen een groter deel van hun bedrijfskritische serveromgeving beperken.
Door het toepassen van virtualisatie en het implementeren van managementtools die bedrijven in staat stellen hun virtuele machines te repliceren als een enkel schijfbestand, hebben ze de zekerheid dat de meeste van hun kritische data continu gerepliceerd en beschermd wordt tegen storingen in de infrastructuur. Dus in plaats van het maken van een back-up per uur, per dag of zelfs per week, wat de huidige werkwijze is voor fysieke en virtuele it, kunnen organisaties hun back-up window zodanig verkleinen dat deze praktisch niet meer bestaat. Als bedrijven de belasting op hun infrastructuur vergroten, moeten zij zich er ook van verzekeren dat ze toereikende databeschermingsstrategieën hebben ontwikkeld. Virtualisatie maakt het mogelijk dit op een eenvoudige, efficiënte manier te doen tegen lagere kosten. Alleen dan kunnen bedrijven belangrijke data benutten voor analyses en hun it-infrastructuur uitbreiden zonder bang te hoeven zijn ten onder te gaan.
Ratmir Timashev
Ceo
Veeam Software
Datagroei
Uit onderzoek van IDC blijkt dat in 2011 alleen al 1,8 zetabytes werd gegenereerd, genoeg om 115 miljard iPads van 16 GB te vullen. Dit is ruim 0,6 zetabytes meer dan in 2010. Naar verwachting bereikt dit groeicijfer in 2020 een totaal van 35 zetabytes. Dit komt niet alleen doordat bedrijven meer data genereren, maar ook omdat bedrijven deze data vervolgens gebruiken om bijvoorbeeld te bepalen hoeveel klanten X keer product Y kopen.
Wat heeft servervirtualisatie met Big Data te maken, wat wil je er mee oplossen? Repliceren van grote hoeveelheden data vraagt vooral goede, snelle en betrouwbare verbindingen. En waarom zou je server backup willen als je storage kunt synchroniseren?
@ Ratmir Timashev,
Ik mis de link naar Big Data. Ik deel natuurlijk wel je mening dat data slim,efficien en bovenal veilig opgeslagen/bewaard dient te worden.
“Virtualisatie biedt bedrijven de mogelijkheid om met één druk op de knop de serverinfrastructuur zowel op- als neer te schalen. Vanuit het perspectief van big data is dit gunstig omdat de kosten van het draaiende houden van de infrastructuur zo beter beheerst kunnen worden”
Op zich zit hier een kern van waarheid in. Alleen is dit niet iets specifieks voor alleen Big Data.
@ Ewout,
“Repliceren van grote hoeveelheden data vraagt vooral goede, snelle en betrouwbare verbindingen”
Ik ben het helemaal met je eens dat de verbinding een zeer belangrijke factor is. Echter is er natuurlijk meer. Slimme back-up en replicatie software (storage of source based) is minstens zo belangrijk. Denk hierbij onder andere aan deduplicatie, snap mirror replicatie, wan optimalisatie/caching etc. etc. Met deze eerdere genoemde zaken kan je de benodigde bandbreedte beperken.
“En waarom zou je server backup willen als je storage kunt synchroniseren?”
Tja, mogelijk zijn de kosten van een 2e storage systeem te hoog. Of wil men ook een kopie buiten het storage systeem behouden. Dat laatste gebeurt nog erg vaak omdat men er niet altijd even gerust op is. Enerzijds zeer traditioneel. Anderzijds zeer handig in het geval de zowel je productie als uitwijk omgeving omvalt.
Het voorkomen, bestrijden en in toom houden van Big Data vereist een visie, strategie en ervaring. Het is kort door de bocht om de virtualisatie als een reddingsmiddel te benoemen voor het oplossen van dit vraagstuk bovendien virtualisatie lost dit probleem niet op!
Ik vind ook niet terecht om virtualisatie gelijk te koppelen aan kostenbesparing! De initiële investering en de terugkerende kosten in een virtualisatie-infrastructuur (hardware en software) zijn zeker niet laag. Maar dit is een andere discussie.
Veel zaken die te maken hebben met data zijn vandaag de dag embedded in hogere versie van SAN en Storage. Door de laatste ontwikkelingen kunnen twee storage-boxen op verschillende niveaus met elkaar communiceren. Maar de vraag is, wat heeft dit allemaal met Big Data in dit artikel te maken? De beschikbaarheid van data en services kun je ook met andere middelen dan virtualisatie realiseren!