De laatste jaren hebben we te maken met een versnelde evolutie wat betreft mogelijkheden voor het opzetten en beheren van een moderne IT omgeving. Denk aan de Public Cloud maar ook aan de evolutie van virtualisatie naar containers, van monolitische applicaties naar micro-services, en de introductie van serverless computing. Mede door deze nieuwe architecturen zijn er verscheidene voordelen te behalen zowel qua snelheid in het uitrollen van nieuwe omgevingen, stabiliteit en schaalbaarheid, maar ook potentiële kostenbesparingen.
Wat de eindgebruiker in dit verhaal merkt is meestal beperkt, tenzij het gaat over een nieuwe applicatie. Het belangrijkste component voor de eindgebruiker, en daardoor ook voor het bedrijf algemeen, is de data. Data is is de levenslijn van een bedrijf, data bevat de intellectuele eigendom, data is meer en meer bepalend in het vinden van een strategie om je als bedrijf te differentiëren van je concurrent.
Voor de IT beheerder is het omgaan met data in deze steeds veranderende wereld geen sinecure, buiten de paradox van teveel keuzes, bevindt de data zich op steeds meer verschillende plaatsen, in het eigen datacenter, in SaaS applicaties, in de Public Cloud, maar ook in steeds meer onder verschillende vormen, zowel gestructureerd en ongestructureerd in verschillende applicaties.
Stel dat je als bedrijf een “cloud first” strategie volgt, of dat je zoals de meeste bedrijven al deels publieke cloud diensten gebruikt, hoe ga je om met je data in deze? Data heeft een bepaalde “zwaartekracht”, data gravity in het engels, waarmee we bedoelen dat data de eigenschap heeft om applicaties en diensten naar zich toe te trekken (aangezien applicaties en diensten gebruik moeten maken van die data) waardoor deze fysiek zo dicht mogelijk bij de data staan voor de snelste resultaten. Bijkomend effect is dat dit ertoe leidt dat er steeds meer data gegenereerd wordt waardoor er weer nieuwe applicaties sneller hun weg vinden naar deze data en de cyclus zich steeds verder zet.
In het licht van een steeds meer gedistribueerde IT omgeving is het dus aangewezen om de applicatie naar de data te brengen, maar hoe ga je hiermee om in een hybride cloud omgeving? Grote hoeveelheden data transferen naar de publieke cloud is niet eenvoudig, de wet van de snelheid van het licht kunnen we niet omzeilen, om nog maar te zwijgen van data uit de publieke cloud te halen en de bijhorende egress kosten. Maar wat als we op een slimme manier ervoor kunnen zorgen dat eens we de data nodig hebben in de Public Cloud ze er al was?
Sinds de eerste versie van Rubrik hebben we ingezet op het gebruik van de Public Cloud als opslaglocatie voor backup data, ondertussen kunnen we die data extra benutten en omtoveren tot actieve data voor test- en ontwikkelingsomgevingen of voor beperkte uitwijkscenarios. Door de backup data in Amazon of Azure op aanvraag te gebruiken als basis voor deze scenario’s (incl. de automatische migratie van VMware naar een van deze Cloud Providers) moeten we geen extra data transferen en kunnen we gebruik maken van diensten in de Public Cloud, maw het brengen van de data naar de applicaties. Bijkomend voordeel is dat je zelf eigenaar blijft van je data door gebruik te maken van je eigen encryptie en zodoende in lijn bent met allerlei regelgeving. Hetzelfde concept is trouwens mogelijk indien je lekker oldschool enkel in je eigen datacenter wil blijven werken.
Meer weten?
Download het ebook: Managing Your Data Trove in the Planet of the APIs