Hyper converged versus application aware storage. De use cases voor beide oplossingen zijn talloos, maar de applicatie staat centraal. Uiteindelijk is dat waar de centen mee verdiend worden. De business is afhankelijk van de beschikbaarheid en performance van applicaties. Daarom zetten ze vaak 'business critical' ervoor. Quality of service (QoS) per applicatie (geïsoleerde workload) zou je als dienstverlener onderscheiden van de concurrenten.
Eerst maar de definitie van hyper converged:
Hyper-converged is een type infrastructuur systeem met een software-centrische architectuur die zorgt dat er een nauwe integratie is tussen compute, storage, networking virtualizatie resources en andere technologieën die draaien op een commodity hardware box, gesupport door een enkele vendor.
Er zit een aantal voordelen aan een hyper converged-infrastructuur, zoals easy scale out, een eenvoudige installatieprocedure, standaardisatie van componenten, management efficiencies, maar er kleven ook nadelen aan. Storage resources en rekenkracht kunnen alleen gezamenlijk geschaald worden. Wanneer de storage-capaciteit tegen een limiet aanloopt, maar de rekenbronnen nog maar op 25 procent utilisatie draaien, zal er toch een volledige appliance met rekenkracht en storage moeten worden toegevoegd. Dat leidt dan weer tot overcapaciteit. Ook het tunen van storage disks voor een bepaalde applicatie is een enorme uitdaging.
Niet samen te schalen
In de meeste omgevingen zijn storage en rekenkracht niet samen te schalen, en de inefficiëntie van hyper converged binnen een grote omgeving zal de voordelen binnen kleinere omgevingen teniet doen. Dus hoe combineer je voordelen als eenvoudige schaling, installatiegemak en gebruiksvriendelijk management met de eisen van grootzakelijke prestaties en de optimale benutting van de beschikbare resources? Applicatie-centrische storage, die alle activiteiten op vm-niveau uitvoert, biedt deze voordelen en is een goede match voor datacenters.
Elke applicatie in een gevirtualiseerd datacenter heeft een ander i/o-profiel. Latency speelt hierbij een cruciale rol. Sterker nog, ik durf te stellen dat je aan losse iops-getallen niks hebt als je niet de latency, het read/write percentage en omvang van de i/o kent. Zonder deze informatie heeft een iops-getal geen enkele waarde. Hoge latency in een bedrijfskritische gevirtualiseerde applicatie kan een negatief effect hebben op alle virtuele machines binnen de storage array. Dan komt een grote hoeveelheid data in de ‘i/o-blender’ terecht. Dit fenomeen zorgt in een gevirtualiseerde omgeving voor performance-degradatie op de gehele storage array. Dit gebeurt wanneer meerdere vm’s tegelijk i/o-streams sturen naar de hypervisor om verwerkt te worden. Bij zware workloads zijn de i/o’s vaak sequentieel, maar deze worden door het blender-effect ineens random. Dit heeft een negatief effect op de read/write-activiteiten op de schijven, met als resultaat een hogere latency.
Er is een mogelijkheid om een deel van deze prestatie-issues op te lossen door bijvoorbeeld meer ssd’s te plaatsen of door te ‘overprovisionen’ . Deze oplossing is echter inefficient en kostbaar.
Slimme storage-oplossing
Om dit probleem bij de horens te vatten moet er naar een slimme storage-oplossing worden gezocht die elke applicatie monitort op zijn end-to- end gedrag op zowel host-, netwerk- als storage-niveau. Vanuit de performance beoordeeld is het wenselijk om deze bedrijfskritiscche applicatie alle voorrang te geven en hem de resources te geven die deze nodig heeft met een latency van minder dan een microseconde. Dat betekent dat de storage appliance zo intelligent is, dat deze een continu overzicht heeft van alle vm’s op de array en hun i/o-gedrag.
Dit kan worden gerealiseerd door de i/o-requests continu bij te houden op vm-niveau , met een ‘vm-bewuste’ working set analysis die hot blocks in flash kan reserveren. Een working set analyser die continu de i/o-requests bijhoudt, kan een 99 procent flash hit rate bieden. Alle niet active data en snapshots komen hierbij automatisch terecht op tragere harde schijven. Door inline-deduplicatie- en compressietechnieken op de flash tier en compressie, toegepast op de harde schijven, kan 2 tot 2,5 maal meer data verwerkt worden dan de werkelijke capaciteit. Dit wordt ook effectieve datacapaciteit genoemd. Daarnaast is er de mogelijkheid om per vm policies in te regelen voor snapshots, clones, replicatie en encryptie. Dit kan per applicatie en/of per vDisk bepaald worden.
Conclusie
Met vm-aware of application-aware storage krijgt elke toepassing de juiste resources wanneer dit nodig is, zonder compromissen, met minder dan één microseconde vertraging. De geïsoleerde workloads krijgen allemaal de juiste quality of service (QoS). Dit beantwoordt aan veel vragen van bedrijven die overwegen over te stappen naar hyper converged, zonder de verplichting om gelijktijdig storage en rekenkracht te hoeven schalen en zonder het risico van een vendor lock-in. Daarbij komt het tegemoet aan het doel van storage in het hedendaagse datacenter: het leveren van consistente en voorspelbare high performance aan applicaties. Want een toepassing die presteert onder alle omstandigheden resulteert in tevreden klanten.