Via de Cloud Architect Alliance belandde ik op het jaarlijkse congres Insight in Barcelona, zeg maar NetApps-versie van Amazons Re:Invent. Wie niet bij een grote multinational werkt of cloud computing vooral doet op Azure, AWS of Google Cloud Platform, zal NetApp alleen kennen van naam en logo. En dat ze vooral storage doen.
Tenminste, dat gold voor mij. Ofwel, ik verwachtte daar in Barcelona niet dat het congres iets voor mij of voor NetApp toe zou voegen. In beide gevallen zat ik mis.
Gevaar
Als bedrijf gebruiken wij AWS als primair platform voor onze diensten. Het gevaar schuilt hierin dat je dingen bouwt op basis van specifieke AWS-api’s. Dit leidt tot een vendor lock-in. Als je niet meer tevreden bent met AWS kun je niet zonder meer weg.
Door gebruik te maken van Kubernetes, ben je theoretisch in staat je platform en containers te verplaatsen naar andere cloudproviders of naar on-premises. Dit geldt in de basis natuurlijk ook als je het cloudplatform van NetApp gebruikt.
NetApp is historisch gezien een storage-leverancier. (Weetje: een founder van NetApp, David Hitz, hield een keynote en vertelde dat hij een dorm heeft gedeeld met Jeff Bezos.) NetApps storage is gericht op schaal en snelheid, maar snel een account aanmaken om NetApp te gebruiken is er niet bij. Ik liep in de eerste instantie ook niet warm voor het bedrijf toen ik mij aan het inlezen was.
Sinds een anderhalf jaar is NetApp aan een grote strategische transitie begonnen. Bestaande proposities frontaal aanvallen, heeft vaak weinig zin en daarom heeft NetApp voor een andere benadering gekozen. Die is niet alleen origineel, maar ook briljant: alle infrastructuur rust op storage en NetApp beschikt over onderscheidend vermogen als het op storage aankomt. Maar hoe vertaalt dit inzicht zich nu naar de praktijk?
Magie
Door niet te concurreren met de cloudproviders maar door ze te versterken en omarmen. Je kunt nu zowel op AWS als op Azure binnen die omgevingen NetApp-elementen aan je infrastructuur koppelen en wel op zo’n manier dat je het datacenter van AWS of Azure niet hoeft te verlaten. Je kunt dus met een stukje NetApp-magie je cloud-infrastructuur versterken zonder latency te verliezen. Door deze storage toe te passen op je container-orchestration middels Kubernetes, ben je in staat workloads te verplaatsen van AWS naar Azure, maar ook naar on-premises of NetApp zelf. Met Kubernetes maken zij storage generiek en met hun deals met de grote providers voorkom je min of meer een vendor lock-in. Meer visionair dan de huidige move van AWS om met Outpost meer hybride te doen.
NetApp heeft mij een account gegeven waarmee ik alles kan testen en dat zal ik zeker doen. Mijn uitdaging wordt om ons leerplatform op NetApp-Kubernetes te laten draaien en het te verplaatsen van AWS naar Azure naar NetApp. Als dat lukt, dan is deze strategie valide, al zie ik nog wel wat uitdagingen met routeren, dns en load balancing.
Ik kan hier nog veel meer over vertellen – bijvoorbeeld over hoe deze ‘bold move’ tot stand is gekomen – maar daarvoor ontbreekt hier de ruimte.
Het was een heerlijke serendipity-ontdekking die mijn interesse vasthield waardoor ik met meer inzichten naar huis ben gegaan dan ik vertrokken was. NetApp heeft nog wel een weg te gaan als het aankomt op bedrijven zoals de mijne te bereiken, maar het begin is er en het smaakt naar meer.
De cloudspagaat zit in de applicatie- en datapoot. Die moeten beiden dicht bij elkaar, anders doet het zeer. Hoe lost NetApp dat op dan? Veel NetApp-magie voor iemand die zo graag man en paard benoemt.
Briljant idee natuurlijk. Maar niet door NetApp bedacht.
Dit is door Nimble Storage bedacht en al naar de markt gebracht in 2017. Sinds de acquisitie van Nimble door HPE heet het HPE Cloud Volumes: https://cloudvolumes.hpe.com
Deze storage is ook nog eens veel robuster dan deze cloud providers zelf bieden. Niet alleen voor containers maar ook voor VM’s en biedt ook leuke mogelijkheden met de on-premises systemen van een klant zoals replicatie en uitwijk.
Disclaimer: ben zelf HPE medewerker
Hi Remko,
Bedankt voor je reactie. Welke idee bedoel je precies? Het internet en dus de wereld bestaat en draait om het gebruiken van ideeën van anderen. Daarom kunnen we nu auto’s bouwen terwijl de mens de laatste 50.000+ jaar nauwelijks is verandert als het gaat om intelligentie en herseninhoud maar er geen auto’s bestaan uit die tijd.
Een goed idee is belangrijk en kan de wereld veranderen, maar het gaat natuurlijk om de uitvoering. Deze zal het succes van het idee meer bepalen dan het idee zelf.
“Deze storage is ook nog eens veel robuster dan deze cloud providers zelf bieden”
Welke storage bedoel je dan? Die van NetApp of die van bijvoorbeeld AWS, GCP en Azure?
Zover ik begrepen hebt kan NetApp veel krachtigere storage bieden dan de cloud providers mede omdat NetApp specialiseert en de cloud providers het vooral van commodities en lage kosten moeten hebben.Wat NetApp dus heel knap gedaan heeft (en volgens mij uniek) is dat zij dus hun diensten van krachtige storage aanbieden vanuit de datacenters van Amazon, Microsoft en Google. Dus je kunt profiteren van de generieke cloud computing EN profiteren van de gespecialiseerde storage van NetApp.
Robuustheid is wellicht ook wat lastig uit te drukken als je geen details gebruikt. Ook wordt robuustheid op verschillende manieren gerealiseerd. Zo zal S3 storage op AWS totaal anders in elkaar steken dan dedicated opslag. Mede doordat ook de use case verschilt.
Zonder verdere onderbouwing kan ik niet goed de kracht en kwaliteit van HPE beoordelen ten opzichte van andere aanbieders.
Ik kan daar dus ook geen verdere toelichting op geven.
@Dino: You say it best, when you say nothing at all!
Somehow NetApp managed to put their hardware either into the datacenter itself or between the Azure / AWS datacenter and the cloud consumer.
Dus zij hebben iets voor elkaar gekregen waardoor het latency technisch is alsof de hardware naast die van de die van Microsoft en Azure staat, of zo dicht bij dat er geen latency penalty is. Rumor has it dat het datacenters van equinix zijn, zie https://www.equinix.nl/
En die magie zou alleen maar werken als het er echt is 😉
@Henri
Data is het digitale residu van een proces welke vaak een wettelijke bewaartermijn heeft, wat lost NetApp eigenlijk op met een dataportabiliteit in blikken zonder etiket?
Goede vraag Ewout en dat is dus een governance risk compliance vraag. Systemen slaan data op in databases en AVG vereist dat je weet waar je data staan als deze persoonsgegevens bevatten. Wat voegen containers eigenlijk toe of wat los je op met dataportabiliteit?
Zoals met alles is kun je geen compleet antwoord geven zonder er een hele lange reactie van te maken, dus ik zal het proberen kort te houden.
Allereerst zul je met elke provider waarmee je zaken doet een verwerkersovereenkomst moeten sluiten, deze zijn vaak generiek en komen er op neer dat de providers zich aan de AVG/GDPR zullen houden. Je containers en data verplaatsen van ene provider naar de andere provider zul je niet vaak toepassen. Meestal is dat onderdeel van een exit strategie. Wat wel heel relevant is zijn de diverse API’s van providers. Die van Azure werken echt anders dan die bij AWS. Door je software specifiek op AWS te maken zorgt nu eenmaal voor een vendor lock-in. Door je software te schrijven gericht op kubernetes (K8S) ben je veel minder verbonden aan de provider waarop je deze host.
Stel dat je een ERP pakket bouwt wat heel schaalbaar is en draait op K8S, dan kan je software bij iedere provider draaien inclusief on-premises.
In ons geval bieden wij leeromgevingen aan, hoe fijn is het dan als de schaalbaarheid geregeld is? In traditionele automatisering komen containers in K8S niet tot zijn recht, hier schreef Gijs in ’t Veld ook al over: https://www.motion10.nl/kennisbank/blog/containers-zijn-gewoon-iaas-lieve-mensen/
Dus kortom K8S is niet voor iedereen en elke use case. Het is geen vervanger van virtuele servers, maar ze hebben zeker wel sterke use cases en dat staat los van GDPR regelgeving.
Henri,
Lang antwoord kort gemaakt, je hebt data en je hebt metadata welke de data beschrijft. Laatste staat inderdaad vaak in een soort van database maar is niet altijd onlosmakkelijk aan eerste gekoppeld door bijvoorbeeld problemen met de schaalbaarheid. En hierdoor zijn er steeds meer blikken waarvan de inhoud en houdbaarheid onbekend zijn maar die wel heel verplaatsbaar zijn.
Hi Henri,
Nou deze vorm van Storage voor je cloud apps is dus gelijk aan wat wij vanuit HPE als HPE Cloud Volumes bieden. Snelle robuuste Storage vanuit Enterprise Storage direct in een Amazon of Azure data center. Want inderdaad je apps en data moeten dicht bij elkaar zijn.
Kortom niet uniek van NetApp en ze waren daar ook niet de eerste mee. Ze hebben je in iedergeval een goed verhaal verteld. En het klopt wat betreft gebruik en voordelen alleen niet uniek en ook niet door hen bedacht, want zo beschrijf je het zo’n beetje.
Met robuuster bedoel ik de beschikbaarheid die wordt geboden/gegarandeerd. Bij AWS etc is het vaak maximaal 99.5% beschikbaarheid die men als sla biedt. Een bijzonder lage waarde.