Nu data bij bedrijven blijft groeien en wet- en regelgeving vereisen dat data steeds langer bewaard moet worden, lijkt de cloud een schaalbare en kosteneffectieve storageoplossing. Organisaties moeten zich echter wel goed afvragen hoe zij bij cloud-opslag hun back-up en disaster recovery inrichten. Cloud computing kan disaster recovery weliswaar verbreden door de hersteltijden te verkorten en de risico’s van natuurrampen te verminderen. Maar incorrect beheer kan ook de nodige problemen opleveren.
Op een bepaald moment is herstel nodig, bijvoorbeeld wanneer een medewerker per ongeluk bestanden heeft gewist of een hacker het bedrijfsnetwerk heeft aangevallen. Planning is dan ook cruciaal. Het is nodig om effectieve back-up- en disaster recovery-processen te creëren. Dat voorkomt in tijden van crisis de nodige hoofdpijn.
Voorbereid zijn
Nu het technologische landschap continu verandert en bedrijven moeten inspelen op nieuwe trends als virtualisatie en big data, is het zaak om de eigen back-up-aanpak goed te analyseren en zo nodig aan te passen aan nieuwe eisen. De mogelijkheden zijn legio en die kunnen it-teams de nodige kopzorgen opleveren. Bedrijven slagen er vaak niet in om iets verder in de toekomst te kijken en zien alleen wat er nu nodig is. Dat kan later tot problemen leiden, zeker op het gebied van back-up en disaster recovery.
Potentieel dataverlies is in dit verband een serieus risico, veroorzaakt door hetzij een hardwarestoring, hetzij een netwerkhack of iets anders. Uit een onderzoek van TechValidate (december 2012) bleek dat hardwarestoringen veel vaker voorkomen dan gedacht. Van de respondenten meldt 52 procent een storing in 2012; 37 procent had in het laatste halfjaar te maken met dataverlies. Niettemin liet dezelfde studie zien dat 81 procent van de organisaties niet beschikt over een geteste back-up- en disaster recovery-strategie. Alarmerend is, dat disaster recovery bij elk bedrijf speelt, terwijl de meeste daar dus niet op zijn voorbereid.
Doordenken
Wanneer duidelijk is dat 81 procent van de bedrijven de eigen disaster recovery-strategieën niet test, is ook duidelijk dat deze bedrijven niet weten hoe lang het duurt om alle data weer te herstellen of waar de data precies is opgeslagen. Was data voorheen overzichtelijk op één plaats terug te vinden, in de cloud is dat anders. Sterker nog: in een cloud-oplossing kan het juist praktisch zijn om zaken qua opslag te scheiden. Cloud-storage is relatief goedkoop, maar het kan kosteneffectief zijn om eerst te bepalen welke data vaak nodig is en welke niet. Ongebruikte data kan prima naar een goedkopere storageomgeving, terwijl actieve data wat dichter bij de eindgebruikers bewaard wordt.
Daarnaast wil een bedrijf bij een storing zijn bedrijfskritische informatie zo snel mogelijk weer beschikbaar maken. Maar als alle informatie van bijvoorbeeld de afgelopen tien jaar in één keer hersteld moet worden, gaat dat heel lang duren. Al met al flinke uitdagingen, vooral doordat langdurige uitval omzet kost en in het ergste geval het einde van de onderneming betekent.
Aanpak
Om te beginnen is het nodig te bepalen waar data het best is op te slaan. De eerste stap daarin is het bepalen welke applicaties en data bedrijfskritisch zijn en welke niet. Data is zo in te delen op basis van belang voor de organisatie, waarna het mogelijk is een storagehiërarchie te creëren. Op deze manier is te voorkomen dat inactieve data het proces van herstel vertraagt, omdat alleen actuele data hersteld dient te worden.
De meeste bedrijven hebben zoveel data, dat dit herstelproces niet handmatig uit te voeren is. Wanneer eenmaal een hiërarchie is vastgesteld, is het mogelijk om met een geautomatiseerd systeem data te verdelen op basis van vooraf bepaalde regels. Dat garandeert niet alleen dat alle data wordt geback-upt, maar biedt de it-afdeling ook de ruimte om zich aan meer strategische taken te wijden.
Met deze mechanismen is een begin te maken met het testen en tweaken van strategieën. Zo leggen bedrijven de basis voor snel herstel na uitval.
Cloud Computing heeft geen donkere wolken hoewel uitbesteding ervan het natuurlijk wel wat schimmig maakt. Een gratis advies voor iedereen die wil besparen op de groeiende behoefte aan opslag: gooi 1/4 van je data weg om 3/4 van de kosten te besparen. Klinkt onzinnig maar lang niet alles hoeft (lang) bewaard te worden maar we laten helaas nog steeds na om de data te classificeren naar de werkelijke waarde:
http://www.slideshare.net/edekkinga/leaflet-storage-2
Dit artikel gaat niet over cloud (computing). Dit artikel gaat over back-up en disaster recovery.
Het artikel is an sich niet slecht, ik constateer ook wel dat het laag op de agenda staat (maar niet als je het iemand vraagt) en dat is logisch, het levert namelijk *niets* op. Het voorkomt alleen een hoop ellende als je het niet goed hebt geregeld. Maar laten we er niet cloud bij de haren bijslepen.
Het beheersen van data moet onder gebracht worden in een stukje governance. Sommige data staat in bestanden, andere in databases en andere data staat bij een leverancier van je SaaS, bijvoorbeeld bij SalesForce, Exact online, MoneyBird, Google, et cetera. Daar heb je weer andere competenties, producten en strategieën voor. Het gaat erom dat je voor elk product/soort bewust bent wat er mis kan gaan en hoe je de controle houdt.
In zijn geheel een uitdaging, maar als je inzoomt op de specifieke uitdaging en als je governance een beetje in de klauw hebt (BISL / ASL / Itil), dan is het echt wel behapbaar.
De grootste uitdaging lijkt me niet de techniek, maar het bewust worden en de organisatie daar omheen.