Voorspellingen van Gartner (Storagereview.com ) voor 2016 geven aan dat in 2016, 20 procent van de organisaties back-up en recovery technologieën zal hebben vervangen voor exclusief gebruik van snapshots en replicatie. Ook verwacht Gartner dat tegen het einde van 2016 meer dan de helft van de organisaties klantgevoelige data zal opslaan in de public cloud. Zijn deze voorspellingen realistisch en waarom wordt dit verwacht? Computable storage-experts geven antwoord op deze vragen.
De voorspelling dat snapshots en replicatie, back-up en recovery technologieën zal vervangen, klinkt Arend Karssies, country manager bij Netgear, niet geheel vreemd in de oren. ‘Hoewel snapshots van oudsher enkel verkrijgbaar waren in enterprise oplossingen, worden ze tegenwoorden steeds meer gevraagd door mkb-klanten.’ Ook Marcel van Dijk, account manager bij EMC, denkt dat Gartner hier gelijk in zal krijgen, maar hij zegt wel dat we ons wel moeten realiseren dat, hoewel het maken van snapshots eenvoudig is, klanten die daarvoor kiezen geen volledige back-up functionaliteit verkrijgen.
‘Snapshots zijn namelijk een momentopname van een dataset, ooit bedoeld voor het snel maken van een kopie om die dan weer door te geven aan een back-up tool. Een restore van een snap is mogelijk, maar door het ontbreken van catalogue informatie, is het aan gebruikers om files die ze nodig hebben, terug te vinden en zelf restore commando’s te geven.’
Ook Karssies wijst op een aantal punten waar je bij snapshots wel op moet letten. Zo zijn niet alle snapshot-technologieën hetzelfde. ‘Snapshots minimaliseren de impact van dataverlies, dataverwijdering of data corruptie alleen wanneer deze in korte intervallen genomen kunnen worden, tijdens normale werktijden en zonder een impact te hebben op de prestaties en dus op de gebruikers en applicaties.’
Volgens Karssies kunnen klanten alleen dan het gewenste ‘bijna-continue databescherming’ realiseren. Om dit voor elkaar te krijgen moeten storage systemen volgens hem extra software of geavanceerde ‘copy-on-write’ bestandssystemen zoals ‘btrfs’ of ‘zfs’ gebruiken. ‘Dan is data op de network attached storage beschermd in strakke intervallen en dus beter beschermd tegen verwijdering of data corruptie.’
‘Wat betreft data replicatie is dit bedoeld voor recovery van de meest courante dataset op een tweede locatie, zodat men bij een ramp snel verder kan met de meest courante data’, zegt Van Dijk. ‘Het lijkt heel handig om deze kopieën ook op de primaire storage omgeving te gebruiken voor back-up of recovery doeleinden. Maar data protectie mag principieel nooit op de primaire storage en moet derhalve fundamenteel aan heel andere voorwaarden voldoen dan ’slechts’ een kopie van een willekeurige, momentane dataset te zijn.’
Klantgevoelige data
Met de tweede verwachting van Gartner, dat tegen het einde van 2016 meer dan de helft van de organisaties klantgevoelige data zal opslaan in de public cloud, is Karssies het niet geheel eens. Vanuit zijn perspectief, kiezen klanten juist steeds vaker welke data zij in de public cloud willen opslaan en met welke data zij voorzichtiger om willen gaan.
‘Organisaties willen liever het beste van twee werelden en bovendien zijn er in de meeste Europese landen ook duidelijke dataprotectie wetten die voorkomt dat men klantendata in de public cloud opslaat.’ Van Dijk vindt de voorspelling echter wel realistisch aangezien hij merkt dat kosten of snelheid vaak een overweging zijn om gebruik te maken van een public cloud.
‘Vaak realiseren organisaties niet dat zij eigenhandig in staat zijn een alternatief, zoals de private cloud, te bieden die goedkoper en meer Agile kan zijn. Veel organisatie zijn zich er vaak ook niet van bewust dat zij (gedeeltelijk) gebruik maken van een publieke cloud provider. Deze ontwikkeling kan zich voordoen wanneer afdelingen of individuen vanuit een organisatie, gebruik maken van providers zonder hier de ict-afdeling over te informeren. Dit gebeurt vaak wanneer de interne ict-organisatie niet in staat blijkt de gewenste snelheid of functionaliteit voor bijvoorbeeld file-sharing of een platform voor applicaties te kunnen bieden. Deze ontwikkeling heet ‘shadow IT’.’
Een dergelijke ontwikkeling heeft volgens Van Dijk nadelige consequenties voor integriteit, veiligheid en lock-in, omdat de applicatie niet zonder meer kan worden teruggehaald, kosten niet helder zijn en data niet voldoende is beschermd. ‘Bovendien is de eigenaar van data juridisch verantwoordelijk voor alles wat met zijn of haar data gebeurt’, leg Van Dijk uit.
‘Een public cloud zal nooit deze jurisprudentie kunnen waarmaken. Een data-eigenaar heeft de verplichting te voldoen aan de privacy-wetgeving van het land waar die data is opgeslagen. Wordt daar de wet overtreden, door wat voor omstandigheden dan ook, bijvoorbeeld door een simpele hack, dan zal de eigenaar onder de jurisprudentie van dat land vervolgd kunnen worden. Sommige data kan zelfs onder een exportvergunningstelsel kunnen vallen als het inhoudelijk gevoelige data betreft.’ Van Dijk vindt de verwachting van Gartner dan ook realistisch, maar vraagt zich wel af of de betreffende organisaties deze beslissing al dan niet bewust weloverwogen doen.
De voorspellingen worden door beide experts dus enigszins realistisch genoemd, maar wanneer organisaties in de toekomst daadwerkelijk in de richting van deze voorspellingen gaan, is het raadzaam wel met de genoemde uitdagingen rekening te houden.
Herkenbare punten die beide heren aan halen.
Het is belangrijk om de data + daarbij horende applicaties te classificeren op herstelbaarheid (RPO/RTO).
Kies dan per catagorie de juiste technologie erbij. Om de oplossing zo kosten effectief en snel mogelijk te houden is het niet altijd nodig om te snappen, replicatie of aan continuous dataprotection te doen.
In back-up/recovery land geldt ook ” One size doesn’t fit all”
Erg herkenbaar.
Ook wij zien bij onze klanten, veel meer dan een aantal jaren geleden, dat ze open staan voor public cloud oplossingen voor hun concurrentie gevoelige data. Weliswaar merken wij dat er nog veel vragen bestaan over de data-veiligheid i.v.m. onduidelijkheid over de wet- en regelgeving van de landen waar de fysieke servers staan.
Beste Arend
Er zijn intussen back-up producten die de snapshots indexeren zodat de gebruikers kunnen zoeken naar specifieke bestanden in alle gemaakte snapshots. Er zijn geen speciale restore commando’s nodig. Indien de data niet te restoren is van de snapshots zal automatisch naar een ander opslag medium worden gezocht en van daaruit de data restored worden. Goed artikel!
Belangrijk verschil, is dat bij replicatie en snapshotting de data in de regel binnen dezelfde (maar fysiek verspreide) infrastructuur blijft, terwijl traditionele tape-backup zorgt voor een offline medium. Een menselijke fout, een kraak of een kwaadwillende beheerder zijn voor het eerste scenario een veel groter risico dan de ouderwetse situatie waarbij ook buiten de online omgeving kopieën bestaan die niet eenvoudig te vernietigen zijn. Uiteraard kan je met goede access control dezelfde resultaten behalen, maar dit zie ik zelden toegepast. Een goed georganiseerde hack betekent voor veel organisaties dat de aanvaller schrijftoegang krijgt tot alle data.
Een zin als “Organisaties willen liever het beste van twee werelden…” kun je betreffende onderwerp data ook invullen als een loterij zonder nieten, probleem hier is namelijk niet de opslag of het veiligstellen maar dus gewoon het eigenaarschap. Aangaande persoonsgegevens kunnen we beter spreken over rentmeesterschap want naar mijn opinie kan een organisatie nimmer de eigenaar worden van een digitale identiteit en wie daar anders over denkt heeft gewoon de afschaffing van de slavernij gemist.
Betreffende eigendom van data zijn hier leuke juridische cases terug te vinden, het gaat hier namelijk vaak om het eigendom van de schijf en dus niet de bits & bytes die erop staan. Eerder haalde ik dit aan in opinie ‘WA-verzekering in de cloud’ omdat constructies in de cloud voor nogal wat nevelen zorgt. Ander punt waar nog vaak overheen gelezen wordt is de ‘replicatie’ welke inderdaad steeds vaker de back-up lijkt te vervangen, ook hier wordt de klok niet gestolen maar wel de tijd want 80% van de data binnen een organisatie is ‘dood’ doordat deze niet wijzigt maar wel bewaard moet worden.
RPO/RTO gaat vooral om het snelle herstel van de dienstverlening en richt zich dus meer op de service dan de informatiebeveiliging, met name in een proces zoals de archivering gaat hier veel mis als ik overweeg dat de back-up hier nog vaak voor misbruikt wordt. Nu wordt data classificatie als tijdrovend gezien, we slaan liever alles op en zoeken later wel uit of het waarde heeft en dit knelt niet alleen met wetgeving maar ook met budgetten. Een ‘datareductie’ project scheelt al gauw 40% in de kosten die gemoeid zijn met het datamanagement en dat is gezien de terugwerkende kracht in uitgestelde investeringen over meerdere jaren een smak geld. Opslag gaat niet alleen om een disk maar ook alle handelingen die erbij horen om informatie veilig en beschikbaar te houden.
Daarin kan de cloud een oplossing zijn maar eerder stelde ik al dat veel cloud oplossing non-compliant zijn als replicatie naar een datacenter buiten de grenzen van Europese Unie gedaan wordt, bij de reis naar de cloud wordt weinig rekening gehouden met het ‘recht om vergeten te worden’ doordat gegarandeeerde vernietiging van data niet meegenomen wordt. En het maakt ook niet zoveel uit of je nu een publieke of private cloud oplossing hebt want juridisch gezien gaat het om het eigendom van de datadrager, eerder schreef ik hier al over in ‘WA-verzekering in de cloud’ want we lijken nog weinig geleerd te hebben van Nirvanix.
Oja, de meeste datalekken komen trouwens voort uit onachtzaamheid met de back-up als ik kijk naar de bron van wikileaks tot aan CD’s met gegevens van zwartspaarders en alles daar tussen. Meeste zijn dus ook niet veroorzaakt door hackers maar door interne (procedurele) fouten want het genoemde ‘Shadow IT’ is een veel groter groeiend probleem hierin. Aangaande ‘snapshots’ is het hier net als Flodder met: “Hoe wilt u betalen buurman?” als ik even kijk naar de grootste blunders hiermee afgelopen jaar. Even voor de duidelijkheid, data gaat om kosten en informatie om opbrengsten en hiertussen zitten nog wat onverenigbare cognities als ik overweeg dat maar weinig organisaties de kosten van opslag doorberekenen. En vergeet niet dat je de fysieke componenten kunt verzekeren (mitigeren van risico) maar een abstract iets als informatie en vertrouwen niet.
Dit zijn zo maar mijn 2 cent, een muntje dat trouwens ook al bijna uit het systeem in Nederland is verdwenen maar dat even terzijde;-)
Alleen al aan twee recente voorbeelden van een klant en bekende van mij. Een MKB-er die nieuwe apparatuur had aanschaft, niets ingewikkelds maar wel een gecrashste nas met data waar niets meer van te recoveren bleek. Nee, de oude apparatuur was door de leverancier alweer ‘doorgezet’ en natuurlijk met gecleande schijven.
Het tweede betrof dan toch weer een meevaller. Een recovery geval waarbij zowel de image als data corrupt bleken te zijn. De IT levernacier eens gevraagd of zij die backups random nou nog wel eens controleerde? Nou ehm…. we zijn toch bezig alles over te zetten naar andere media dus…..
Ik heb ze nog maar eens de vraag gesteld. Als je namelijk corrupte data, ‘for what ever reason’ in een cloud zet, is en blijft die data corrupt. Met kunst en vliegwerk werd de boel weer opgezet, helaas niet zonder productieschade van de afdeling van naar schatting een vier weken.
Als u vind dat cloud nu plots zaligmakend zou zijn? Blijf ik herhalen dat als je niet na wil denken over meest basale standaarden als een backup, die niet regelmatig controleerd, standaard uitvoerd, loopt altijd een keer tegen het gegeven aan dat ‘Murphy’ zelden slaapt.
Een ROI is eenvoudig bedacht en berekend in elk geval.
Ik vrees dat veel beslissers van klanten afhaken bij het doorgronden van de ontwikkelingen op het gebied van Cloud, VM, Virtuele Back-up, et cetera. Klanten moeten weten welke functionaliteit (rollback, disaster recovery, migratie mogelijkheid) bij welke cloud-diensten hoort en wat ze nodig hebben. Kennis van en ervaring met virtualisatie is bij bedrijven vaak beperkt.
Er zijn veel bedrijven die ze dat graag willen vertellen, maar de meeste commerciële vertegenwoordigers verdraaien de werkelijkheid. Ze doen net alsof ze de klant begrijpen en eerlijk antwoorden. Maar in feite willen ze alleen maar verkopen wat ze in de aanbieding hebben, of waarvoor ze de hoogste bonus krijgen. Zo is een snapshot geen volwaardige back-up omdat het voor rollback bedoeld is. Maar een snapshot wordt wel als een snelle back-up verkocht. Een gewone back-up is ook niet geschikt voor rollback.
Aan de ene kant wil de klant geen gedoe en niet-kernactiviteiten graag uitbesteden, maar ze willen wel control. Maak het verhaal complex voor de klant en deze verliest control als deze niet voldoende expertise in huis heeft. De klant krijgt natuurlijk wel waarvoor deze getekend heeft, maar niet wat die nodig heeft.
Vooral het MKB staat nogal zwak. Ze hebben doorgaans onvoldoende eigen technische kennis en ervaring, en geen visie wat voor een functionele oplossing ze nodig hebben.
Heb laatst een kleine klant als vriendendienst geholpen met een gecrashte machine. Ik heb de schijven weer benaderbaar gemaakt, maar dat was geen volledige oplossing. Het doorzoeken van de schijf naar de benodigde bestanden was tijdrovend. Er was wel een back-up gemaakt, maar de back-up was nooit gecontroleerd, was niet getest en was niet gedocumenteerd. Dus er was geen back-up. Zo’n klant staat zwak tegenover de cloud leverancier. Ze kiezen vrijwel nooit voor de beste oplossing.