“De hypervisor is commodity.” “Het draait om het management van de virtualisatielaag.” Veel gehoorde en gelezen opmerkingen die in zekere zin waarheid zijn geworden. Nu ook Citrix zijn hypervisor gratis weggeeft en de hardwareleveranciers servers inclusief hypervisor leveren, lijkt het daar wel op.
Microsoft heeft zijn eigen hypervisor uitgebracht (Hyper-V) en hun agressieve marktbenadering bewijst dat het om meer draait. Het gaat over de eerste laag bovenop de hardware. De laag die de hardware in feite controleert en bepaald wat op welke manier van deze resources gebruik mag maken.
Binnen de datacenters is Microsoft een hoop van deze controle verloren aan VMware. Controle die ze met Hyper-V weer hopen terug te pakken of in ieder geval willen consolideren. Net nu Microsoft met Hyper-V 2 de strijdt aan lijkt te gaan met de concurrentie, lijkt het gevecht zich te verplaatsen naar de desktop en mobiele devices. Zowel VMware als Citrix proberen deze gigantische markt te betreden met hun eigen client hypervisor.
Een client hypervisor zal, in tegenstelling tot de servervariant, geen grote consolidatievoordelen met zich meebrengen. De voordelen van een client hypervisor zitten hem in flexibiliteit en portabiliteit. Doordat jouw desktop op gestandaardiseerde virtuele hardware is geïnstalleerd, draait hij net zo makkelijk in het datacenter als op jouw laptop of mobiele telefoon. Al zullen de huidige Nokia's ietwat heet worden bij het draaien van Windows Vista.
De hardwareleveranciers gaan een belangrijke rol spelen in de adoptie van deze client hypervisors door zowel de consument als het bedrijfsleven. De client hypervisor die bij de meeste hardware standaard geleverd wordt, zal de standaard gaan bepalen. Vergelijkbaar met datgene wat Microsoft en IBM voor Windows gedaan hebben. De meest gebruikte client hypervisor zal vervolgens de standaard aangeven voor een virtual machine-formaat. Wordt het VHD of VMDK?
De vergelijking is snel gemaakt met het Office-document. Een geruime tijd heeft Microsoft Office de standaard hierin bepaald. Pas de laatste jaren is de vraag naar een open standaard hierin toegenomen. Toch zijn het voornamelijk nog .doc(x) of .xls(x) bestanden die mij toegezonden worden.
Een standaard voor virtuele machines is er al, OVF. Dit is op het moment echter niet meer dan een tussenvariant. Alle hypervisors kunnen omgaan met deze open standaard. Voordat je een virtuele machine in dit formaat kan starten, moet hij wel echter geconverteerd worden. Zolang dit nog geen werkende oplossing is zal de hypervisor de standaard bepalen.
Terug naar mijn stelling. Het lijkt er voorlopig op dat Microsoft het gevecht om deze standaard en controle over de client niet mee gaat spelen of over laat aan vriendje Citrix. Microsoft lijkt zich voorlopig te richten op virtualisatie in het datacenter en volledige cloud computing op de desktop (Azure).
De toekomst zal het uitwijzen, maar ben benieuwd naar jullie meningen en inzichten.
Van de twee bekendste startups op dit gebied (Virtual Computer en Neocleus) heeft Citrix zich al ingekocht bij de eerste. Een voor de hand liggend scenario is daarom dat Microsoft wacht hoe deze nieuwe markt zich ontwikkelt, om daarna via een overname van bijvoorbeeld Neocleus alsnog een inhaalslag te maken. Enig probleempje voor Microsoft is wellicht dat ook Neocleus gebaseerd is op de Xen hypervisor …
Ik denk niet dat de vraag is: VHD of VDMK. VHD formaat is behoorlijk gelimiteerd betreft storage backend bij bijvoorbeeld XenServer. Raw VDI is misschien beter een goede standaard voor de toekomst. Maar dat formaat mist bij XenServer weer een boel features. Voorlopig blijven we maar converteren tussen al die formaten. En zolang er nog zulke grote verschillen zijn betreft features en gebruikersvriendelijkheid van al die virtualisatie aanbieders, kunnen we daar nog wel even mee doorgaan. En betreft Hyper-V? Elke keer probeer ik het weer, maar elke keer wend ik mij toch weer tot de oude vertrouwde Vmware ESX server. Is het toch nog steeds veel meer “proven technology”?
Ik denk dat er wel degelijk een standaard zal komen. Uiteindelijk zullen Citrix, VMware en Microsoft een management tool worden om de gevirtualiseerde omgevingen te beheren – gebaseerd op de standaard hypervisor. De leverancier die deze functionaliteit als eerste volledig geautomatiseerd aan kan bieden zal koploper worden. VMware heeft op dit moment de beste papieren. Echter Citrix is met een significante inhaalslag bezig en Microsoft zal ook versneld te werk gaan en is weer sterk aan Citrix gelieerd.
Wat mij betreft is het belangrijkste patent van VMware het VMFS, waarop vmdk files worden opgeslagen, welke weer dienst doen als schijnbare harddisks voor operating systems die werken alsof ze de reele hardware voor zich hebben. Dat VMFS biedt unieke voordelen. Als de vraag luidt: “Moet Microsoft zijn hypervisor aanpassen?” dan zou ik zeggen “ja, o zo’n manier dat je en vmfs filesystem kan gebruiken.” Maar om met de bekende vaderlandse filosoof J. Cruijff te spreken: “Dat benne utopieen die niet kenne gebeuren”. Ik zie net als de overige reageerders eerder dat MS zelf lekker doorknutselt.
In dat licht bezien is de vraagstelling: “Moet er een standaard komen?” wel grappig! We hadden namelijk een standaard, want er was een monopolie van VMWare. Toen was de vraag:”Moet er niet wat concurrentie komen?”.
Een standaard algemene hypervisor zie ik er op korte termijn toch nog niet van komen. Daarvoor zijn de architectuur-verschillen momenteel m.i. net iets te groot. Denk aan paravirtualisatie, binary translation, memory overcommit, drivers wel of niet in de kernel, etc. En zolang de hypervisors van elkaar blijven verschillen, zal ook de inhoud van de opslag van virtuele machines op de harde schijf verschillen (dus het VHD en VMDK bestand).
Wat intussen wel al redelijk gaat lukken is standaardisatie met betrekking tot de meta-data van die virtuele machines: dit is inderdaad het Open Virtual Machine Format (OVF). Daarin worden zaken gedefinieerd als de benodigde hoeveelheid virtual memory, virtual CPU’s en eisen aan het omringende netwerk. Hier kun je als vendor ook nauwelijks een concurrentievoordeel mee behalen en het adopteren van zo’n standaard is dan ook weinig bedreigend voor de eigen positie.
Ik zie de strijd om de standaard hypervisor als een kortstondige storm. Persoonlijk verwacht ik dat hypervisors maar korte tijd echt in het nieuws zullen zijn. Daarna bereiken hypervisors een status als commodity, net als bijvoorbeeld mobiele telefoons. Je kunt niet meer zonder. Maar merk en type maken niet zoveel meer uit als je er maar mee kunt bellen. Standaard of niet, de rest is bijzaak. In die zin begrijp ik de afwachtende houding van Microsoft wel. Potentie voor marktwaarde door onderscheidend vermogen is maar beperkt.
Waar ik veel meer dynamiek van verwacht zijn connectoren. Niet zozeer om de technologie, maar vooral om de impliciete mogelijkheden die deze bieden op het gebied van standaardisatie, besparing op front- en back-end systemen, doelmatigheid in beheerprocessen en effectiviteit van gebruikers. Het onderscheidend vermogen tussen verschillende connectoren zal daarbij vooral gericht zijn op onderliggende technologie en volumes.
Komt er een standaard hypervisor; Nee, er zal hooguit een standaard interface komen waarmee hypervisors communiceren met de bovenliggende managementtooling. De Microsoft hypervisor aanpassen is namelijk ook geen optie, de architectuurverschillen zijn te groot.
Hierop sluit een OVF NextGen formaat aan. Dat zorgt er voor dat “workloads” wel kunnen draaien op verschillende hypervisorversies. OVF staat namelijk nog in de kinderschoenen. De eerste opzet is een goede start, maar de virtualisatieleveranciers zullen aan de eisen van de klant tegemoet moeten komen; interoperabiliteit tussen virtualisatieproducten.
Deze visie sluit aan bij die van cloud computing. Daar zal de “workload” als een dienst leven waarvan de parameters beschikbaarheid, performance en beveiliging worden ingesteld. Of dit dan een server- of clienthypervisor is waar de “workload” op draait, maakt niet meer uit. Alle hardware wordt immers een grote pool van resources die gebruikt wordt ten behoeve van de “workload”. Cloud computing ten top!
Bedrijven doen al jaren hun best te standaardiseren op hardware, voor zowel het datacenter als op desktops en laptops. De hypervisor kan gezien worden als een verlengstuk van de hardware en niet (zoals velen denken) als laag onder besturingssystemen. Het is slechts een benaderingswijze, maar wel een die inzicht geeft. Als verlengstuk van de hardware behoud je als systeembeheerder namelijk je onafhankelijkheid van een hardware vendor.
Ook kunnen (nu en nog meer in de toekomst) de hypervisors verschillende hardware platformen aanbieden als een virtueel platform. Denk aan cpu-masking / enhanced vmotion compatibility (EVC). Derhalve zal het in de toekomst alleen maar belangrijker worden om te standaardiseren op een van de hypervisors. Een homogene omgeving heeft beheertechnisch en dus ook kostentechnisch de voorkeur boven een heterogene omgeving.
Dat alle eco-vendoren werken aan multi-hypervisor applicaties heeft mijn inziens niet zozeer te maken met het feit dat zij meerdere vendoren tegelijkertijd willen managen. Ze weten simpelweg nog niet wie deze strijd gaat winnen, dus kunnen zich niet veroorloven te wedden op 1 paard.
Of Microsoft op de goede weg zit? Ja, natuurlijk, stel je eens voor: over maximaal een a twee jaar serveert Citrix Xen(Server) af (“het is toch gratis en alle tooling is multivendor”). Het heeft dan haar doel gediend, het ondermijnen van de hegemonie van VMware. Driemaal raden wie daarvan zal profiteren?
Het antwoord op je stelling is moeilijk te geven. Natuurlijk zal Microsoft water bij de wijn moeten doen om toch een stuk van deze markt in handen te krijgen, maar het zal vooral om de focus van virtualisatie gaan. Microsoft is helaas te laat ingesprongen in de servervirtualisatie markt en doet nu krampachtige pogingen om hier een stuk van terug te nemen. De vraag is waar Microsoft zich op zal richten, zal het toch server virtualisatie zijn, of gaan ze verder voor dekstop en cloud virtualisatie. Wat Martijn hierboven al aangeeft is het OVF een erg goed initiatief en zal het met de next-gen alleen maar beter worden, met nieuwe mogelijkheden welke ondersteunt worden. Vraag is alleen of Microsoft zoveel water bij de wijn wil doen.
Uiteindelijk bepaalt de eindgebruiker wat er wel en wat er niet succesvol wordt. De techniek interesseert hem of haar hoegenaamd niets. Het moet werken en wel zo eenvoudig en goedkoop mogelijk, het liefst met de nieuwste software (ja ook die van Microsoft). Ergo: Microsoft zou zich beter bezig kunnen houden met de ongekende mogelijkheden die deze nieuwste ontwikkelingen bieden voor verspreiding, beheer en gebruik van hun software. De enorme verbetering van de toegankelijkheid van SBC netwerken, de potentie die dit heeft op het net voor wat je Softwareproviders zou kunnen noemen, geven ten eerste de gebruikers de mogelijkheid altijd en voor relatief weinig geld over de nieuwste software te beschikken en ten tweede bedrijven als Microsoft de mogelijkheid eindelijk altijd betaald te worden voor het gebruik van hun producten. Vechten om een been dat er straks toch niet meer is (zie reactie Edwin Charite) is verspilde tijd, geld en moeite.