Er zijn nog steeds een groot aantal ondernemingen die op dit moment voor de keuze staan om wel of geen virtualisatie toe te passen binnen hun infrastructuur. Dit kan worden verklaard door bijvoorbeeld opgerekte afschrijftermijnen door de financiële crisis of het niet direct mee willen/kunnen gaan in nieuwe technologische ontwikkelingen.
Ook de horror verhalen over dalende performance en slecht functionerende software spookt bij veel ondernemers door het hoofd als ze denken aan virtualisatie. Door de eerste lichtingen ondernemers die wel al over zijn gestapt op een virtueel platform zijn er echter wel al een hoop lessen geleerd over het implementeren en beheren van virtuele omgevingen.
Maar een aantal van de nadelen blijft toch bestaan, immers dient er nog steeds een centrale storage unit aangeschaft te worden om redundancy van functionaliteiten te hebben en ondanks dat het wel wat gemakkelijker is geworden om een VMware-server te implementeren blijft het een uitdaging om alles goed op elkaar af te stemmen.
Microsoft denkt echter een oplossing te hebben voor veel van de bovenstaande problemen in Windows server 2012. Toegegeven, het ziet er leuk uit, maar al die nieuwe functies leveren ook weer een hoop nieuwe vragen op.
Bijvoorbeeld de centrale server management console. Volgens Microsoft draagt deze bij aan het vereenvoudigen van beheertaken. Maar het risico wat hier aan kleeft is dat dingen makkelijker kunnen lijken dan ze zijn, en dat er een gebrek aan kennis ontstaat over wat dat makkelijke knopje nou eigenlijk op de achtergrond doet.
Nog een voorbeeld is het samen kunnen voegen van verschillende typen harde schijven van verschillende servers om hier een soort virtueel san van te kunnen maken. Dit is een van de ontwikkelingen waar iedereen die geen san- of nas-oplossing wil of kan kopen op zit te wachten. Het simpel combineren van al je lokale storage tot een groot virtueel san en hier dan vervolgens volledig een virtuele server op kunnen hosten.
Maar levert dit op wat wordt beloofd? Eigenlijk wordt er onderwater gebruik gemaakt van een synchronisatie mechanisme wat ervoor zorgt dat er op twee fysieke locaties identieke gegevens aanwezig zijn. Dit betekent dus een verdubbeling van de benodigde netto capaciteit. Ook wordt er gezegd dat alle type disks te combineren zijn. Theoretisch betekent dit dus dat 10k en 15k schijven gecombineerd kunnen worden, maar ook sata schijven kunnen aan de mix worden toegevoegd. Hoe moet het dan met de performance? Want Microsoft heeft nog geen mechanisme toegevoegd dat data slim plaatst over de verschillende type disks.
Zoals gezegd lijkt de nieuwe 2012 editie van Windows server een aantal grote stappen vooruit te bevatten op het gebied van virtualisatie. Echter ligt het er maar net aan hoe deze geïmplementeerd worden.
Het blijft dus belangrijk om gedegen advies in te winnen op het moment dat er wordt gekeken naar virtualisatie. Want in de ervaring van de schrijver gaat het lang niet altijd goed en leiden veel ondernemingen onnodige verliezen door slechte implementaties van virtualisatie.
Het werd tijd dat software fabrikanten meer aandacht gingen besteden aan virtualisatie voor MKB omgevingen. Goed onderbouwd artikel!!
Volgens mij levert dit inderdaad op wat wordt beloofd : virtualizatie van storage + flexibiliteit + gebruiksgemak (voor beheerder).
Ik heb niet begrepen dat Microsoft een virtueel SAN belooft (gemaakt van je ouwe meuk disks) met automatische performance optimalisaties. Dan zou het trouwens pas echt en goed OS worden 😉
Hoewel ik heel wel het nut en de mogelijkheden van virtualisatie zie, ben ik toch nog toe vooral slechte ervaringen hiermee tegen gekomen, die zich vooral uiten in het totaal instorten van de performance van specifieke vhosts.
Vanzelf is dit gewoon het gevolg van onkundige inrichting, maar dit geeft wel aan dat het toepassen van virtualisatietechniek meer inhoud dan het domweg instaleren van VMWare (andere oplossingen kennen we kenlijk niet meer omdat je daarvoor echt moet weten van de hoed en de rand)
Dit geeft Fred in zijn artikel ook aan.
Wat me uit je verder overigens niet helemaal duidelijk is waarom dit probleem speciaal voor het MKB zou gelden (ik ken deze problemen vooral op het gebied van internet hosting (zowel webtoepassingen als zeer dedicated situaties) evenals pogingen van derden om realtime dsp software te draaien in een virtuele machiene (hoe naief kun je zijn)
Wellicht is VMware dermate toegankelijk dat dit ook binnen het kleinbedrijf aanspreekt en men daar niet de kennis heeft om goed in te schatten hoe je e.e.a. het meest verstandig kunt toepassen en hoe je dat vooral niet moet doen.
Fred,
Ik ben van mening dat virtualisatie niet altijd de juiste oplossing voor een bedrijf is!
In een haalbaarheidsonderzoek zou uitgezocht moeten worden waarom een bedrijf virtualisatie wil invoeren. Het probleem is dat virtualisatie veel zichtbaar en onzichtbare kosten en complexiteit met zich meebrengt. Het gaat niet alleen om hypervisor (Citrix Xen, VMware, Hyper-V etc) maar ook de benodigde hardware en software voor verschillende lagen van de architectuur. Denk aan plug-in voor back-up, antivirus, OS licentie(server of desktop), blad-infrastructuur, storage zaken.
Wat er nog vergeten wordt is de kennis voor het beheren van de omgeving na de implementatie. Virtualisatie maakt je landschap complex en beheer daarvan vereist kennis en ervaring van verschillende (software & hardware)producten. Deze bij elkaar opgeteld wordt virtualisatie niet voordelig voor een organisatie met een klein ICT-afdeling of een organisatie met een ICT-afdeling met beperkte kennis.
Als je goed in kaart breng waarom je virtualiseren wil dan kun je ook kijken naar andere mogelijkheden buiten virtualisatie om te zien of je je doel zonder virtualisatie bereiken kan. Hier zijn ook genoeg mogelijkheden voor. Deze zaken zou ik als opdrachtgever in een haalbaarheidsonderzoek terug moeten/willen zien.
Windows 2012 biedt nieuwe functionaliteiten en mogelijkheden aan. Deze kun je zeker gebruiken om zonder virtualisatie je doel te bereiken.