Virtualisatie maakt het werk in het datacenter een stuk eenvoudiger. Het maakt je systemen schaalbaarder en flexibeler in vergelijking met traditionele systemen. In dit artikel probeer ik uit te leggen welke obstakels zich het meest voordoen tijdens een virtualisatieslag, en breng ik de belangrijkste virtualisatietrends in kaart.
1. Meten is weten: is virtualisatie de moeite waard?
Zoals bij alle projecten is het belangrijk om eerst een grondige analyse van de vereisten uit te voeren. De inrichting van de huidige omgeving is daarbij leidend. Hoe ziet de belasting van de hardware eruit? Virtualisatie biedt pas uitkomst zodra je beschikt over een goed overzicht van je ict-bronnen. Hoe zou een gevirtualiseerde omgeving moeten worden geconfigureerd om ervoor te zorgen dat die volledig aan de eisen voldoet? Pas wanneer je het netwerk-, opslag- en cpu-verbruik accuraat hebt ingeschat heeft het zin om over de overstap naar een gevirtualiseerde omgeving te praten. Load tests en de juiste mate van netwerkbewaking kunnen daarbij van pas komen.
Virtualisatie kan al snel voor problemen zorgen als je de vereisten niet op een rijtje hebt. Als er te weinig virtuele machines op je hardware draaien, mist virtualisatie zijn doel. Aan de andere kant is het mogelijk dat je hardware overbelast raakt omdat er onrealistische eisen aan zijn gesteld. Feit is dat i/o-intensieve taken over het algemeen niet bijster geschikt zijn voor virtualisatie. Geëmuleerde hardware zal al snel onder de last bezwijken wanneer meerdere virtuele machines regelmatig en tegelijkertijd proberen toegang te krijgen tot dezelfde fysieke hardware.
Zorg voor een realistische planning. Hoeveel fysieke processor-cores moet elke vm (virtuele machine) kunnen gebruiken? Biedt de opslagvoorziening voldoende prestatievermogen om als gedeelde opslaglocatie voor alle vm’s te dienen? Maak een einde aan giswerk. Meten is weten!
2. Hanteer een brede kijk op virtualisatie
Zodra je de hardwarevereisten in kaart hebt gebracht, is het tijd voor stap twee: nagaan welke applicaties zich het beste voor een gevirtualiseerde omgeving lenen. Applicaties die processors sterk belasten of uiterst intensieve lees- en schrijfbewerkingen uitvoeren zijn grotendeels ongeschikt voor gevirtualiseerde systemen. De resultaten zullen er ook niet beter op worden als je de serverhardware uitbreidt. Uitbreidingsmodules en dongles werken vaak niet in combinatie met gevirtualiseerde systemen.
Daarnaast is het belangrijk om na te gaan of de licenties van je software ruimte bieden voor virtualisatie. Het is mogelijk dat die geen ondersteuning bieden voor het gebruik van gevirtualiseerde clients. Of dat de leverancier gebruik op vm’s niet officieel ondersteunt, of slechts ondersteunt voor een klein aantal specifieke platforms (zoals die van de leverancier zelf).
3. Krijg inzicht in het reilen en zeilen van je netwerk
Als je de ict-omgeving van je organisatie al hebt gevirtualiseerd, zou je ervoor moeten zorgen dat je een uitgebreid overzicht hebt van wat er zich binnen het netwerk afspeelt. De prestaties van netwerken in gevirtualiseerde omgevingen staan of vallen met de efficiëntie van de samenwerking tussen hypervisors, virtuele machines en hardware. Dat is een aspect dat je nauwlettend in de gaten moet houden. Op welke punten binnen het netwerk is er sprake van bottlenecks? Heb je de hardware op de juiste manier voor virtualisatie gespecificeerd en geconfigureerd? Met een slimme oplossing voor netwerkbewaking kun je potentiële problemen signaleren en verhelpen voordat er storingen optreden. Door hostservers, besturingssystemen en vm’s afzonderlijk te bewaken kun je snel fouten en onverwachte overbelastingen identificeren die nadelig kunnen zijn voor de prestaties.
4. Zorg voor een vroegtijdige herkenning van patronen in het netwerkverkeer
Hardwarestoringen en piekbelastingen zijn funest voor gevirtualiseerde netwerken. Wanneer nodes, storage-systemen of switches uitvallen, zullen diverse vm’s en de applicaties die daarop draaien daar snel de gevolgen van ondervinden. Ook als de hardware zelf blijft functioneren, maar er onverwachte pieken in het netwerk of de performance optreden, worden vm’s hard getroffen en laten ze het mogelijk afweten. Het is daarom belangrijk om het netwerkverkeer door en door te leren kennen en patronen te herkennen met behulp van analysetools. Dit maakt het eenvoudiger om de capaciteit van ict-bronnen aan te passen aan de netwerkbehoeften en piekbelastingen te vermijden.
Als je het netwerkverkeer als je broekzak kent, wordt het makkelijker om je systemen in de lucht te houden. Wanneer vinden pieken plaats? Welke diensten en hosts hebben daar het meeste onder te lijden? De antwoorden op deze vragen helpen je om grip te krijgen op je infrastructuur. Als het netwerk regelmatig overbelast raakt, is het tijd om te overwegen om problematische systemen uit de gevirtualiseerde omgeving te verwijderen.
5. Geïntegreerde bewaking van gevirtualiseerde systemen
Als je applicaties op vm’s laat draaien is het belangrijk om die volledig te integreren met je oplossing voor geïntegreerde bewaking. Gevirtualiseerde systemen moeten even nauwgezet en uitgebreid worden bewaakt als traditionele hardwarevoorzieningen. Eigenlijk zouden ze nog strenger moeten worden bewaakt, omdat er meer potentiële bottlenecks mee gepaard gaan. Bovendien kun je pas echt van de schaalbaarheidsvoordelen profiteren als je voldoende bekend bent met de workloads.
Uitgebreide geïntegreerde bewaking maakt het mogelijk om individuele workloads te bewaken voor onder meer het netwerk, het geheugen en het besturingssysteem, allemaal vanuit een en dezelfde tool. Dit betekent dat je zowel de gevirtualiseerde bronnen als fysieke hardware in het oog kunt houden.
6. Reduceer de complexiteit met geconvergeerde systemen
Moderne hypervisors en slimme cloud-software maken het mogelijk om systemen op locatie, private en publieke cloudinfrastructuren als één geheel uit te rollen en te bewaken. Deze ‘geconvergeerde systemen’ zijn beter op de fysieke hardware afgestemd dan traditionele gevirtualiseerde systemen. Dit maakt het mogelijk om uiterst schaalbare hybride architecturen te creëren en voor maximale integratie te zorgen. Met behulp van gestandaardiseerde hardware en de juiste technieken voor systeembeheer kun je een ict-omgeving in het leven roepen die zich kenmerkt door optimale compatibiliteit en integratie.
Nieuwe hardware wordt automatisch aangeleverd en toegevoegd aan de verwerkings- of opslagpool. Dit staat haaks op traditionele, handmatige configuraties. Het grootste nadeel is echter dat je op deze manier afhankelijk wordt van een bepaalde leverancier, omdat alle componenten en software van een en dezelfde partij afkomstig moeten zijn.
7. Compliance of prestatievermogen?
Er worden steeds hogere en complexere eisen aan moderne ict-omgevingen gesteld. Enerzijds moeten de infrastructuur, het prestatievermogen en de geïnstalleerde applicaties flexibeler en schaalbaarder worden dan ooit tevoren. Anderzijds stellen de wet- en regelgeving steeds strengere eisen, onder meer wat de beveiliging betreft. Deze twee aspecten kunnen resulteren in een belangenconflict dat alleen maar kan worden opgelost met een nauwgezette planning en bewaking van de infrastructuur.
Ga samen met de juridische of compliance-afdeling na welke systemen en data van bedrijfskritisch belang zijn en zodanig kwetsbaar dat ze alleen in een afgezonderde omgeving en achter hun eigen firewall mogen draaien. Deze diensten of data zullen in de nabije toekomst niet naar de cloud worden verplaatst – zelfs niet naar een private cloud. Als de wet- en regelgeving bijzonder hoge eisen stelt, loont het niet de moeite om risico’s aan te gaan door met gevirtualiseerde hardware en gedeelde opslaglocaties te werken. Dit zal alleen maar voor onzekerheid zorgen over de fysieke locatie waar bedrijfskritische data is opgeslagen.
8. Laat de software het werk doen met SDN
Technieken als software defined dtorage (sds) en software defined computing (sdc) vormen al geruime tijd een onderwerp van discussie en worden op brede schaal in de praktijk toegepast. Deze vormen van hardwarebeheer maken het mogelijk om goedkopere, generieke producten te laten besturen en toewijzen door een softwarelaag. Dit draagt bij aan verbeterde flexibiliteit en kostenbesparingen. Deze benaderingen maken het vaak ook mogelijk om te voorzien in de behoefte van zakelijke afdelingen aan veerkrachtiger ondersteuning voor hun projecten en systemen.
Naast sds en sdc is er software defined networking (sdn). Hierbij geldt hetzelfde basisprincipe, namelijk dat de besturingslaag wordt losgekoppeld van de hardware. Dit maakt het mogelijk om de netwerkhardware in te richten met simpeler componenten en de complexe besturingslaag geheel met behulp van software vorm te geven – in theorie althans. Twee factoren zitten de toepassing van sdn momenteel in de weg: de verschillende benaderingen die fabrikanten hanteren en het feit dat de bestaande netwerkhardware vaak niet voor sdn geschikt is. De kostenbesparingen laten daardoor nog lang op zich wachten.
Leuke analyse van de stand van zaken in 2003 maar virtualisatie is inmiddels breed toegepast. CPU en storage intensieve applicaties niet geschikt voor virtualisatie? Misschien in 2003 maar inmiddels is ook dat een gepasseerd station met nieuwe CPU technieken, betere scheduling en zaken als flash storage.
Ehm en “..het feit dat de bestaande netwerkhardware vaak niet voor sdn geschikt is. De kostenbesparingen laten daardoor nog lang op zich wachten.” Virtualisatie zorgt juist voor de ontkoppeling van hardware en bovenliggende diensten. Echte netwerkvirtualisatie is dus onafhankelijk van hardware en kan dus reeds breed ingezet worden en de kostenbesparing kan dus wel gerealiseerd worden.
Maar waar kostenbesparing in 2003 hip was, tegenwoordig wordt virtualisatie met name gebruikt om te zorgen dat organisaties in staat zijn zich snel aan te passen aan de hedendaagse snel veranderende markt. Digitale transformatie is het modewoord wat men tegenwoordig hanteert.
De it en daarmee virtualisatie heeft sinds 2003 een enorme ontwikkeling doorgemaakt. Misschien leuk om bovenstaande als uitgangspunt te gebruiken en analyseren waar we in bijna 15 jaar enorme stappen hebben gemaakt.
Waarom wordt er elke keer ‘schaalbaarheid’ genoemd met virtualisatie? Iedere hardcore VM-specialist weet dat je eigenlijk nooit meer dan twee cores per VM moet nemen i.v.m. inefficiëncies en co-scheduling effects. Verliezen kunnen tot 20% oplopen zoals vele studies en papers aantonen. Verder kan een VM ook nooit groter dan de grootste doos worden en als er ineens meer dozen nodig zijn, dan toch weer een lange aanschaf procedure. Dus, waar is die ware schaalbaarheid?
ware schaalbaarheid..
mooi.
net als ware kleuren vroeger. Dan had je gewoon veel kleuren.
hd ready is als je minder pixels hebt dan bij full hd. je bent er wel klaar voor ofzoiets.
ware schaalbaarheid.
Is virtual memory waar als je ziet hoe traag swapspace is ?
en dan die context switching tbv multitasking, heb je de context net naar registers en stack gepushed, kun je de boel weer terugzetten ivm de volgende task, als het ware.
Met clustering kan je over dozen heen schalen. horizontaal dus. Maar verlies je ook weer aan status overhead. En je moet ze wel al hebben natuurlijk. Wel opmerkelijk dat juist SWA over die hardware en lange aanschafprocedures begint 😉
Het valt ook allemaal niet mee.