Op het eerste gezicht lijkt desktopvirtualisatie een geweldige oplossing voor de vele bedrijven die worstelen met het beheer en onderhoud van hun pc-infrastructuur. Want wat kan er nu mis zijn aan een oplossing waarmee bedrijven vanaf een centrale locatie een gemeenschappelijk besturingssysteem op al hun pc´s en notebooks kunnen installeren, bijwerken, beheren, onderhouden en beveiligen?
Helaas zijn de dingen nooit zo eenvoudig als ze op het eerste gezicht lijken. En dat geldt zeker voor ict. Het komt maar al te vaak voor dat vereenvoudiging op een punt binnen de infrastructuur ergens anders juist voor grotere complexiteit zorgt. Dit valt te vergelijken met een scène in een horrorfilm. De held of heldin rent een kamer in en sluit de deur achter zich in de veronderstelling de achtervolger te hebben afgeschud. Vervolgens blijkt dat er aan de andere kant een veel groter gevaar staat te wachten. Dit is iets om in gedachten te houden wanneer iemand de loftrompet steekt over de voordelen van een vdi (virtual desktop infrastructure)-implementatie.
Opslagprobleem
Hoewel het allemaal niet zo erg hoeft te zijn, is het belangrijk om met een aantal punten rekening te houden en een oplossing voor een reeks van problemen te bieden alvorens je van start gaat met een vdi-implementatie. Een van de grootste problemen is de opslag. Weet je dat bedrijven voor elke euro die ze aan een vdi uitgeven drie tot zeven euro aan opslagcapaciteit moeten investeren? Dat is pas griezelig.
Hoe komt dit? Daar zijn een aantal redenen voor. Voor het consolideren van tientallen of zelfs honderden desktops binnen één server moet deze ondersteuning kunnen bieden voor de kleinschalige i/o-bewerkingen die op willekeurige momenten door al deze desktops worden gegenereerd. Dit type verkeer wordt vaak geassocieerd met 'boot storms' en 'login storms' (tijdstippen waarom werknemers vrijwel allemaal tegelijk inloggen) en plotselinge, onregelmatige oplevingen van de workloads als gevolg van willekeurige schrijfbewerkingen. Een belangrijk punt om rekening mee te houden, is dat de opslagvereisten niet alleen een fysiek karakter hebben (in termen van gigabytes of terabytes), maar ook betrekking hebben op het aantal inputs/outputs per seconde.
Er worden hoge eisen aan het opslagsubsysteem gesteld: het moet immers ondersteuning bieden aan honderden of zelfs duizenden virtuele Windows-desktops. Door een boot storm kan het bijvoorbeeld ettelijke minuten duren voordat een virtuele desktop is opgestart.
Piekbelasting
Hieruit blijkt dat er sprake is van verschillen tussen servervirtualisatie-omgevingen en vdi-implementaties. In de serveromgeving zorgen de uiteenlopende toepassingen voor willekeurige pieken in workloads, terwijl binnen vdi-omgevingen meestal sprake is van gelijktijdige piekbelastingen. In het geval van servervirtualisatie leveren prestatieschommelingen weinig directe gevolgen op voor de eindgebruikers, terwijl ze een uiterst negatieve uitwerking kunnen hebben op gebruikers van virtuele desktops.
Binnen een traditionele opslaginfrastructuur wordt de opslagcapaciteit vaak op relatief sequentiële wijze belast, waarbij de lees-/schrijfverhouding uitkomt op een niveau van rond de 80 procent voor leesbewerkingen en 20 procent voor schrijfbewerkingen. Omdat er binnen een vdi-omgeving honderden desktops worden verenigd, krijgt het belastingspatroon een willekeurig karakter, met lees-/schrijfverhoudingen van 40:60 of slechter. Dit resulteert onvermijdelijk in nieuwe problemen voor de opslagsoftware en -hardware.
Een manier om login/boot storms en plotselinge oplevingen van het aantal schrijfbewerkingen te voorkomen, is om gebruik te maken van afzonderlijke caching van lees- en schrijfbewerkingen op solid state disks (ssd's). Met behulp van een tiered storage-strategie kan het verwerkingsprocestempo fors worden verhoogd.
Solid state disks
Sommige bedrijven zullen genoeg hebben aan hun bestaande opslaginfrastructuur om aan de eisen van een vdi-implementatie te voldoen. Toch is het meestal beter om te zoeken naar producten die een oplossing bieden voor de prestatieproblemen en kosten van vdi-opslag. Deze producten maken gebruik van solid state disks om de lees- en schrijfprestatie te verbeteren, het i/o-patroon te normaliseren en op kostenefficiënte wijze te voldoen aan de high performance-eisen.
De beste manier om onplezierige verrassingen met vdi's te voorkomen is om de implementatie goed voor te bereiden en ervoor te zorgen dat er voldoende opslagcapaciteit beschikbaar is. Bewaking en capaciteitsplanning spelen hierbij een belangrijke rol. De kosten van vdi-opslag kunnen worden gereduceerd door gebruik te maken van technieken zoals inline compressie, deduplicatie en thin provisioning.
Veel van de problemen rond vdi en het beschikbaar stellen van de hiervoor benodigde opslagcapaciteit zijn inmiddels duidelijk. Leveranciers ontwikkelen technologieën die een antwoord bieden op de problemen en bottlenecks die gepaard kunnen gaan met de overstap naar desktopvirtualisatie. Het is dus heel goed mogelijk dat deze horror-story een happy end krijgt. De volgende keer dat de filmheld in kwestie een kamer binnenholt en opgelucht de deur achter zich dicht trekt, kan het zomaar zijn dat hij of zij zich daadwerkelijk in veilige haven bevindt.
Jacco,
VDI is zoals je aangeeft een heel andere tak van sport. De standaard SAS, SATA of FC disken gaan het hier niet meer voor je doen.
SSD of andere IO caching/optimalisatie is absoluut een must in dit soort omgevingen.
Breng vooraf goed het aantal type gebruikers. Defineer per gebruiker een aantal zaken zoals type applicaties, omvang data en type device.
Je kan daar na 2 dingen doen. Werken met de best practices in de markt. Op zich is dit een goede optie alleen is mijn ervaring dat bijna iedere VDI omgeving anders is. Of toch kiezen voor een POC omgeving. Dit zal initieel meer tijd en geld kosten.
Maar het grote voordeel is dat je wel een veel beter inzicht krijgt in wat er exact nodig is. Hier door wordt de kans op een VDI-boot storm of hoe we dat ook zo mooi noemen een stuk kleiner. En tevens kan je je gebruikers actief mee laten denken en helpen. En dit versnelt weer de acceptatie in je organisatie.
Dit artikel is zeker een jaar te laat geschreven. Inderdaad leek het er lange tijd op dat storage de achilleshiel van VDI zou zijn, maar dat is inmiddels achterhaald door caching mechanismen van bijv. Nutanix en met name Quest. In vWorkspace bijvoorbeeld zit een caching mechanisme dat in combinatie met Hyper-V beslist geen dure SAN storage nodig heeft.Ook hier zie je dat VDI een volwassen oplossing aan het worden is. Microsoft is tegenwoordig het grootste struikelblok, met z’n starre VDA licensing.
In onze POC rond VDI liepen wij ook al snel aan tegen de kosten van de storage die je nodig hebt om de bootstorms en de i/o behoefte op te vangen. Toen liepen we tegen Fusion-IO aan (http://www.vdiappliance.com/) met deze appliances kwam de kosten berekening er opeens een stuk beter uit te zien en zijn de bootstorm tot nu toe onder controle!
Jacco,
De business case voor VDI, eventueel hybride uitgevoerd met ‘good old’ terminal servers ligt inderdaad door de eisen die er aan de hardware gesteld worden wat complexer. Je conclusie dat een implementatie voorbereid moet worden is de spreekwoordelijke open deur waar de held in het verhaal door heen gaat. Noodzaak voor caching, op hardware of software niveau en SSD wordt trouwens ook nogal vaak veroorzaakt door desktop applicaties die niet altijd efficient omgaan met de resources. Een terminal server kon je dan ook ‘kapen’ met een slechte formule in Excel waardoor alle schermen plots bevroren net als met vervelende printopdrachten.
Doordat scheduling van resoucegebruik door hypervisor gedaan wordt kunnen we, in combinatie met de VDI software (connection broker) een groot deel van die eerdere problemen oplossen. Zo ook een ‘boot storm’ door wat proactiever om te gaan met piekbelastingen door vooraf een pool resources klaar te zetten, let hierbij nog wel op roaming profiles.
Beheren van een VDI omgeving is, door de centralisatie trouwens nogal afwijkend van traditionele gedistribueerde desktop omgevingen. Zelfs een goed ontworpen architectuur kan daardoor tot klachten leiden als de gebruikerservaring uit de pas gaat lopen met verwachtingen.
Jacco,
Als het beheren en onderhoud van de Pc-infrastructuur een probleem is dan kan dit geen reden zijn om alleen naar VDI te kijken!
Door de oplossingen zoals SCCM, Matrix42 en nog meer andere producten, hoef je je desktop niet te centraliseren(zoals VDI) maar wel de aan de desktop gerelateerde (beheer)werkzaamheden in dit product centraliseren. Hiermee en onafhankelijk van welke hardware je hebt kun je alles vanaf een centrale plek verrichten zoals men dit bij VDI beweert en zonder hoge kosten en complexiteit van VDI.
VDI of RDS bieden uiteraard meer mogelijkheden aan maar dat is een andere reden voor je business case dan wat je hierboven benoemd hebt.
Afhankelijk van hoe je je VDI inricht, welk product je gebruikt, de eigenschappen van je applicaties en nog meer andere zaken, zijn er genoeg oplossingen die een antwoord hebben op de problemen uit VDI-hoek. Maar aan elke oplossing hangt een prijskaartje, dus goedkoop kom je niet uit.
Bijvoorbeeld het probleem dat Ewout benoemd heeft (Excel bestanden) kan je oplossen met een Work Space Management tool zoals Appsense of RES WM (je kan de resources per user of applicatie begrenzen of isoleren zodat deze geen probleem voor andere gebruiker wordt). Hetzelfde heb je ook genoeg oplossingen voor de problemen omtrent je SAN-Storage omgeving.
VDI concept bestaat uit verschillende lagen en modellen. Deze lagen en vormen moeten door een architect op elkaar gezet worden die eerst een onderzoek verricht heeft naar je omgeving. Daarom is het belangrijk om een stukje haalbaarheidsonderzoek te verrichten voordat je business case opgesteld is en voordat het project (eventueel) een GO krijgt.
Het maakt niet uit of de lijken uit de kast komen of in de kast naast de lijken gaan staan, beide wil je niet in een VDI project meemaken.
Van oudsher zijn de storage en VDI-infrastructuur gescheiden van elkaar. Dit veroorzaakt een gokspelletje; dit betekent dat storage-analyse of –configuratie gebaseerd is op gokken en niet op de echte omvang van VDI-infrastructuurdata. Nieuwe technieken en innovaties zijn nodig om dit probleem op te lossen. De architectuur van virtuele storage toepassingen met maximale klanttevredenheid voorziet nu voor het eerst in deze behoefte: de levensduur van de gehele VDI-omgeving (uitrol, configuratie, inregelen en beheer) is geïntegreerd met de storage-omgeving, waardoor storage eisen makkelijker te vervullen zijn (geen gokspelletje meer). De efficiëntie neemt toe doordat hardware maximaal kan worden ingezet en ook de prestaties toenemen, wat leidt tot maximale klanttevredenheid.