Virtualisatie lost veel problemen in de automatisering op, maar is zelf weer een extra laag automatisering.
Wat is dat?
Virtualisatie is simpel gesteld het afschermen van complexiteit. Een bepaald deel van de ict-infrastructuur denkt dat het in of op een bepaald systeem of infrastructuur draait, terwijl dat niet het geval is. De vermeende ondergrond is een virtuele omgeving.
Dit geldt bijvoorbeeld voor een enkele opslagpool van vele terabytes, die eigenlijk bestaat uit vele storage-apparaten en daarin weer vele harde schijven. Het geldt ook voor besturingsystemen en de daarop draaiende applicaties. Die kunnen verspreid zijn over meerdere servers. Virtualisatie schermt de verschillen af. Zowel die ondergrond als de daarop draaiende – makkelijk aan te maken – virtuele machines moeten wel beheerd worden.
Wat zijn de trends?
Virtualisatie gebeurt met storage al jaren, en op Unix-besturingsystemen en mainframes ook, al heet het daar soms anders; partitioning. De huidige trend, nu voorbij de hype, is toch iets nieuws. Het betreft namelijk de massamarkt van computers met x86-processoren én het legt de lat veel lager. Doordat het de bulk van de markt raakt en op een makkelijke manier kan, beroert dit dus een groot deel van de ict. Virtualisatie ‘daalt' nu ook af, naar nederiger regionen zoals instapservers en zelfs desktops en laptops.
Slim gebruik van virtualisatie, bijvoorbeeld door het te combineren met failover of applicatietoegang, zorgt weer voor een ‘opstijgen' naar de hogere regionen. Dat betreft dus grotere, zwaardere systemen die complexere omgevingen vormen. Denk aan een san (storage area network) met daarop images van virtuele machines, die draaien op een – al dan niet virtuele – server die ze aanbiedt aan remote client-pc's die daarmee een vorm van thin client worden.
Dit is niet alleen technisch interessant, maar ook zakelijk van belang. Relatief goedkope middelen zijn in te zetten met een grotere mate van betrouwbaarheid. Bovendien verkleint virtualisatie de afhankelijkheid van leveranciers. Het is immers niet nodig om exact dezelfde server te bestellen, de gevirtualiseerde omgeving ‘weet' niet dat de hardware anders is. Ook kunnen oudere systemen in gebruik blijven, op nieuwe hardware waarvoor de oudere software geen drivers heeft – maar ook niet nodig heeft.
Toch is virtualisatie niet de verlosser voor alle ict-problemen. Het brengt weer nieuwe uitdagingen met zich mee. Zowel de fysieke ondergrond als de virtualisatiesoftware en de daarop draaiende virtuele machines moeten wel beheerd worden. Wildgroei van vm's kan een zwaar probleem zijn.
Welke oplossingen zijn er?
Virtualisatie lost veel problemen in de automatisering op, maar is zelf weer een extra laag automatisering. Zoals wel vaker gebeurt bij de opkomst van een nieuwe technologie valt er nog veel te optimaliseren en eigenlijk simpelweg te automatiseren. Veel virtualisatie vereist nog handwerk. Uiteindelijk moet brede ondersteuning voor policies hier uitkomst bieden én dan ook utility computing mogelijk maken.
Vóór die tijd is er nog het probleem dat de stofwolken van de concurrentiestrijd nog lang niet zijn neergedaald. Het is dus nog niet duidelijk welke technologie en welke leverancier het beste biedt, nu en voor de toekomst. VMware is de voorloper, Microsoft is de gretige inloper die de prijslat lager legt maar qua functionaliteit achterloper is. Het zijn echter niet alleen deze twee die de strijd bepalen. Virtualisatieveteraan Parallels (voorheen SWsoft geheten), bekend van Parallels voor de Mac en Virtuozzo voor virtuele servers, doet ook mee. Net zoals het door Citrix overgenomen XenSource met diens open source software Xen. Daarnaast willen nog diverse andere partijen een graantje meepikken.
Een probleem in de praktijk van nu is het gemak waarmee virtuele servers zijn aan te maken, al dan niet als kopietje van een reeds draaiende vm of een template (image). Óf beheerders worden overspoeld met verzoekjes voor weer-een-vm óf teveel mensen mogen vm's aanmaken wat tot wildgroei leidt. Dit kan tot prestatieverlies lijden voor kritieke servers, al dan niet virtueel. Daarnaast kan het nogal wat opslagcapaciteit opslokken; elke vm kan een volledige installatie van een server bevatten. Tools voor incrementele vm's bestaan wel, maar zijn nog niet wijdverbreid in gebruik.
Bestaande beheeromgevingen breiden nu dan ook uit om virtualisatie te omvatten, mee te nemen in hun brede beheercapaciteiten. Tegelijkertijd komen er nieuwe beheertools, veelal vanuit de virtualisatieleveranciers zelf. Ook hier zijn de stofwolken nog lang niet neergedaald.
Consultancy Guide 2009
Dit artikel is onderdeel van de Consultancy Guide 2009. Deze gids geeft een overzicht van de trends en ontwikkelingen op de Nederlandse markt voor consultants. Daarnaast bevat de gids de resultaten van een onderzoek, uitgevoerd door TNS NIPO, naar de ervaringen van ict'ers met consultants. De Consultancy Guide 2009 verschijnt op 19 december 2008 in druk.
Waar is te Consultancy guide 2009 te bestellen?
Management van virtuele infrastructuren staat hoog op de agenda bij de verschillende software leveranciers.
Sterk voorbeeld vind ik Novell, de overname van Platespin en het consolideren en re-branden van de producten inclusief ZEN works. De samenvoeging van deze producten maakt het een compleet pakket voor Virtual Datacenter beheer en management. Ook Vizioncore komt met een oplossing die samen met bijvoorbeeld ESXi een betaalbaar managed Virtual Datacenter maakt met vControl. Maar of het dan ook direct m??r werk wordt daar ben ik het niet mee eens. Misschien tijdelijk tijdens migraties maar andere architectuur is niet per definitie meer beheer, wel een andere vorm van beheer. Maar dat maakt ons werk nou juist zo aantrekkelijk! Er is altijd wel weer iets nieuws!
Rechtsboven op SERVICE klikken. Dat Abonnementen selecteren en ziedaar, de bestelmogelijkheden voor alle Computable-uitgaven worden weergegeven.
Veel succes.
Ik snap niet zo goed waar die extra beheerlaag dan vandaan komt. Servers moeten altijd beheerd worden, echt of virtueel. Het enige dat er nog bij komt is de ESX-laag, maar als je dat goed hebt ingericht heb je daar geen omkijken meer naar.
Sterker nog, ik denk dat het beheer en de TCO omlaag kunnen als je kijkt naar easy deployment en de snelle restore mogelijkheden. Een virtual machine is zo gekloond.
Ik kan me helemaal vinden in bovengenoemde beschrijving, virtualisatie brengt nu eenmaal extra kosten en complexiteit met zich mee, en als het doel “het geheel van de complexiteit en dus kosten verminderen” niet kan worden bereikt, kan men virtualisatie beter voorlopig achterwege laten.
De extra beheerinspanning ontstaat omdat men ‘opeens’ ook een extra virtuele omgeving moet kunnen en gaan beheren, en dat is echt een stuk lastiger. Weten welke VM’s waar draaien en waarom en waarvoor, weten waar gevirtualiseerde data zich ‘werkelijk’ bevindt en waarom, weten welke vLANs operationeel zijn en in welke configuratie, brengt een extra niveau van complexiteit aan. Het vooraf kunnen overzien van deze complexiteit tijdens het ontwerp, het kunnen ‘zien’ van de actuele virtuele situatie (discovery en monitorring) tijdens de uitvoering en het uiteindelijk kunnen beheren (Conf. Mgt incl. change en compliance proces), vraagt een groeiende hoeveelheid kennis en kunde van architecten en de beheerders.
In feite niet anders dan daar waar virtualisatie al eerder in geimplementeerd, in de procesindustrie en de discrete productie. Met automatisering van die omgevingen, werd een virtueel model van de fabriek mogelijk waarop de productiebesturing werd afgestemd MRP en ERP oplossingen). In feite doen we in de IT-fabriek niet veel anders, we virtualiseren om (beter) automatisering mogelijk te maken.
Echter om (goed) te kunnen automatiseren, dient een proces niet alleen gevirtualiseerd te worden; het proces waar het plaatsvindt, dient ook overeenkomstig gestructureerd en geintegreerd te zijn. Juist deze laatste twee aspecten ontbreken nogal eens als we na de implementatie van virtualisatie, en na de eerste kortetermijn consolidatieopbrengsten, de verdere vruchten willen plukken met automatisering.
Virtualisatie zonder gelijktijdig te investeren in oplossingen om die gevirtualiseerde wereld real time te kunnen (blijven) zien en beheren, kunnen leiden tot een virtuele chaos, die achteraf lastig is te herstellen. Als men op een gegeven moment niet meer weet welke data door welke applicatie op welke VM en op welke server wordt geprocessed en er ontstaat een disaster, is van een recovery echt geen sprake meer.
Virtualisatie is een perfecte en noodzakelijke oplossing om naar de IT fabriek van de toekomst te gaan, echter, als het beheer en besturingsproces deze extra complexiteit niet aankan (inclusief de onderliggende software hiervoor), is terughoudendheid gepast. Helaas, het is de “wet van behoud van ellende” die ook hier geldt: men kan door virtualisatie een deel van de problemen elimineren, zij komen echter vaak op een andere plaats dubbel en dwars terug.
Hans Timmerman, EMC Nederland
Laten we even wel wezen: de kracht van huidige virtualisatietechnologie zit vooral in tijdsbesteding van mensen. Veel beheertaken worden minder intensief en kunnen worden uitgevoerd zonder dat gebruikers er op hoeven wachten. Dat vind je terug in ROI en minder in TCO.
Dit zal zo blijven totdat je diverse technische lagen kunt integreren in een geintegreerde een-laags architectuur. Cloud Computing zal in die zin de volgende stap zijn, gevolgd door het concept Virtual Storm, waarin front-ends en back-ends vanuit een en dezelfde virtual cloud komen.
Edwin Charite, DeltaISIS