Paul Maritz, ceo van VMware, stelt dat het nog tot 2010 of zelfs tot 2011 duurt voordat desktopvirtualisatie zijn potentie echt waarmaakt. Hij stelt dat er op dit moment enkel over gepraat wordt, maar dat het nog niet werkelijk geïmplementeerd wordt. Met deze constatering kan ik het niet anders dan eens zijn. We zien in de markt, zoals ook blijkt uit eerdere discussies over dit onderwerp, dat het een 'hot topic' is. Maar, een aantal uitzondering daar gelaten, we zien inderdaad weinig echte implementaties van een virtuele desktop.
Over de oorzaak van dit euvel verschil ik echter wel van mening met Paul Maritz. Ik geloof namelijk niet dat het zozeer gelegen is aan onwetendheid van de desktopbeheerder of het management of aan gebrek aan inzicht in de kosten.
Er is wat mij betreft een grote parallel met de verwachte snelheid van de implementatie van Windows 7. Men heeft een grote infrastructurele wijziging op de rol staan en wil deze mogelijk in combinatie met desktopvirtualisatie uitvoeren. IDC verwacht bijvoorbeeld dat eind 2010 de helft van alle business desktops Windows 7 als besturingssysteem zullen hebben. Mijns inziens is dit een van de oorzaken van de vertraging.
Daarnaast proef ik in de reacties, maar ook in het stuk van Paul Maritz, de aanname dat bedrijven wijzigingen in de infrastructuur enkel uitvoeren als er een valide return on investment (roi) is. Dit zou betekenen dat N. Carr toch gelijk heeft gekregen met zijn stuk 'IT doesn't matter'. Met ict kan je het verschil niet meer maken en dus is de belangrijkste drijfveer om wijzigingen in ict door te voeren het verlagen van kosten. En ook hier verschil ik dan van mening met Paul Maritz. Ik denk dat bedrijven namelijk naast de kosten ook nog willen kijken naar het verhogen van de beveiliging en het reduceren van de complexiteit.
Nu komt in het stuk nadrukkelijk naar voren dat desktopvirtualisatie de beveiliging kan vergroten. Maar of desktopvirtualisatie (zoals de fabrikanten het op dit moment propageren) ook werkelijk de complexiteit reduceert is de grote vraag. Wie ziet er dus iets over het hoofd? De beheerder of de leverancier?
De meeste leveranciers hebben de neiging te vergeten waarom bedrijven ook alweer (gevirtualiseerde) desktops hebben, namelijk om diensten te kunnen aanbieden aan eindgebruikers. Eindgebruikers gebruiken namelijk de desktop om de diensten van ict te consumeren en zo hun werk te doen. De leveranciers van desktopvirtualisatie kijken in deze volgorde naar de desktop:
– hardware
– virtualisatielaag
– besturingssysteem met gebruikersinstellingen
– virtualisatielaag
– applicatie (mogelijk met specifieke gebruikersinstellingen)
– eindgebruiker
En daar zit hem volgens mij de crux en de 'onwetendheid' van de leveranciers. Het gaat namelijk zeker bij gebruikers niet om de techniek maar om de dienst. En zoals ISO 20000 ons leert, gaat het bij dienstverlening om een samenspraak tussen dienstverlener en klant, maar ook om mensen, processen en techniek. Dit betekent dat de insteek van leveranciers veranderen moet. We moeten naar de menselijke maat, het is de eindgebruiker die we moeten bedienen en dus zouden we mijns inziens in deze volgorde naar desktopvirtualisatie moeten kijken:
– eindgebruiker
– eindgebruikersinstellingen
– applicatie
– virtualisatielaag
– besturingssysteem
– virtualisatielaag
– hardware
Als we dit doen, dan zorgen we ervoor dat de gebruiker centraal staat, waardoor de complexiteit in onze infrastructuur wordt gereduceerd. Dit heeft tot gevolg dat we sneller kunnen inspelen op veranderingen. Dit is volgens mij een echt positieve business case, waarbij een return on investment slechts een onderdeel is. Dus staat onwetendheid de adoptie van desktopvirtualisatie in de weg? Ja, dat denk ik zeker, maar dan niet alleen bij de beheerder. Ook bij de leveranciers van de oplossingen is nog wel wat werk aan de winkel.
Zware desktops zijn (bijna) pass? en virtualisatie ervan, zeker vanuit gebruikersperspectief totaal niet relevant. De gebruiker wil altijd en overal kunnen werken met de tools die op dat moment het meest geschikt zijn. Dit kan een een fullsize toetsenbord en groot beeldscherm zijn maar bijvoorbeeld ook een smartphone Door het virtualiseren van een desktop blijft de gebruiker meerdere omgevingen houden met ieder zijn eigen, niet gesychchroniseerde, instellingen.
Mijn advies, laat windows7 en de virtuele varianten ervan aan uw organisatie voorbij gaan en investeer in (private)cloudapplicaties die via een browser zijn te gebruiken. Onwetenheid werkt in dat geval namelijk alleen maar in uw voordeel !
Zware desktops lenen zich sowieso niet goed voor virtualisatie, gebruikers krijgen dan mogelijk last van een gevecht om cpu cycles. Los daarvan neemt de complexiteit van de IT omgeving in kwalitatie opzicht aanzienlijk toe bij virtualisatie en virtualisatie van de desktop zal daar nog een flinke schep bovenop doen.
Binnen veel IT afdelingen neemt na virtualisatie projecten de doorloop tijd van voorheen simpele changes flink toe.
Dit wordt vooral veroorzaakt doordat het moeilijker is om de impact van die changes vast te stellen (het is moeilijker om afhankelijkheden te bepalen als resources gedeeld worden).
Ervaring leert dat alle VDI trajecten waarbij de problematieken vanuit een puur technisch, procesmatig of economisch standpunt worden benaderd, gedoemd zijn te mislukken. Uiteindelijk is het de eindgebruiker die bepaalt of een desktop/werkomgeving voldoet aan de eisen en wensen die hij of zij eraan stelt. Dit neemt niet weg dat de technische, procesmatige en economische aspecten te allen tijde aanwezig zijn en ook toepasbaar moeten zijn voor individuen en voor bedrijven als geheel. Schaalbaarheid wordt dan een belangrijk issue en dat is op dit moment een van de grootste problemen waar de vele VDI vendors mee worstelen. Zolang de belangrijkste spelers in de industrie niet voorbij de duizend eindgebruikers in een omgeving kunnen schalen, zal VDI er niet komen. DinamiQs heeft dit reeds vroeg onderkend en heeft daarop haar oplossing VirtualStorm (www.virtualstorm.org ) ontworpen. Een ongekende vereenvoudiging van applicatiebeheer en desktop- en applicatie-deployment vormen hierbij de basis van een optimale eindgebruikerservaring. Dit is mede aangetoond op VMworld 2009 in San Francisco waar het DinamiQs team een omgeving demonstreerde met duizenden desktops met volledige applicatie-stack (90GB+), goede performance en een extreem hoge VM density (450+) per ESX server. Het is 2009, VDI is klaar voor het grote werk.
Inhoudelijk gedeeltelijk eens met het artikel, echter waar Anne Plancius even voor het gemak aan voorbij gaat, is het feit dat een gemiddeld systeem minder lang mee gaat dan een gemiddelde gebruiker en dat de volgorde dus niet zal kloppen. Andere systemen is weer ander beheer. Het is juist de uitdaging om met gecentraliseerde omgevingen zo optimaal aan de wensen van de gebruiker en/of klant te voldoen. Of dit VDI, Citrix of een ander pretproduct is maakt weinig uit. Elk potje past een dekseltje…
Het desktop virtualisatie veld is niet zo zwart/wit als de leveranciers je willen doen geloven. In tegenstelling tot de boodschap van de leveranciers, is desktop virtualisatie vaak niet goedkoper. Oorzaken hiervan zijn bijvoorbeeld de licentiekosten voor de virtualisatie software, steeds duurder wordende stroom en koeling in combinatie met steeds zuiniger wordende desktops.
Desktop virtualisatie stelt ook andere eisen aan de omliggende infrastructuur. Bijvoorbeeld de netwerk belasting heeft een ander profiel, waardoor mogelijk ook veel ge?nvesteerd moet worden in netwerk infrastructuur.
De eindgebruiker hecht steeds meer belang aan audio/video toepassingen. Deze werken niet met alle oplossingen even goed.
Aan de positieve kant staan een vaak sneller aanvoelende desktop, mobiliteit, afhankelijk van het geldende beleid een een betere beveiliging en meer flexibiliteit.
Al met al is het maken van een business case voor desktop virtualisatie behoorlijk complex. Daarnaast, veel bedrijven zijn nog bezig zijn met het virtualiseren van het bestaande serverpark. Nu ook desktop virtualisatie gaan doen zou wel eens gezien kunnen worden als te veel risico voor een technologie.
Ik denk dat VDI, zoals in de huidige vorm het nooit echt gaat maken. Applicatie virtualisatie in combinatie met webgebaseerde applicaties wel. Deze laatste vormen zijn makkelijk geleidelijk in te voeren, afgestemd op de levenscycli van de huidige componenten.
Veel organisaties staan op het punt de bestaande werkplekken te vervangen. Door de komst van Applicatie- en Desktop Virtualisatie zijn veel nieuwe functionaliteiten mogelijk. De gebruikers verwachten meer flexbiliteit, vrijheid en functionaliteit van de werkplek terwijl de IT organisatie kostenreductie, beheersbaarheid en compliancy hoog op de agenda hebben staan.
Leidt veel keuze in het applicatie- en desktop delivery landschap tot geluk of hoofdpijn!? De vraag, en uitdaging, die veel organisaties vandaag met Applicatie-en Desktop delivery hebben is welke leverancier en product keuzes zijn er en welke kant ga ik op. Bijvoorbeeld: Blijven we een ?traditioneel? rich-client model gebruiken of gaan we naar een ?state-of-the-art? Virtuele Desktop toe? Gaan we onze applicaties installeren of gaan we deze virtualiseren? Is straks niet alles web-architected?! Wat is dan het beste voor ons!? Antwoord op deze vragen staan of gaan met de eisen die door de eind-gebruikers en de ICT organisatie aan de applicatie- en desktop delivery worden gesteld. Inzicht in zowel de eisen EN in de functionaliteit van de oplossingen is van essentieel belang om de juiste keuzes te maken.
Desktop Virtualisatie, zowel server-hosted als client-side, is een middel om de applicatie bij de eindgebruiker te brengen….en niet het doel opzich.
Ruben Spruijt, Solutions Architect @ PQR
rsp@pqr.nl
De vraag is; wat is een Desktop nou eigenlijk? Het gaat erom de gebruiker te voorzien van applicaties die met elkaar samenwerken en aan te roepen zijn op een manier die gebruiksvriendelijk is. Het zou mooi zijn als de gebruiker gaat denken aan zijn Personal Desktop en niet meer aan zijn Personal Computer. Die Personal Desktop zou op verschillende devices te bedienen moeten zijn of dat nu vanuit thuis, in de vrachtwaggel of in je bedrijfsnetwerk. Zorg ervoor dat je een Virtual Desktop Infrastructuur hebt die dit mogelijk maakt en die je daarnaast de mogelijkheid geeft om een aantal verschillende virtualisatie technieken te ontsluiten.
Voor meer inspiratie: blogs.sun.com/werkplek
De introductie van Windows 7 heeft zeker effect op de adoptie van VDI.
Daarnaast is het huidige licentiemodel vanuit Microsoft niet bijzonder eenvoudig en gunstig voor VDI. Zo is een thinclient die naar een Windows 7 virtuele machine verwijst, licentie technisch, duurder dan een fat client met Windows 7.
Als laatste zijn de producten nog niet volwassen genoeg. Nieuwe producten en versies vliegen je om te oren. Zaken die nog (goed) geregeld moeten worden:
– Offline VDI
– Eenvoud in ontwerp en beheer bij grote omgevingen
– Gebruikers ervaring. Dit is een stuk protocol, maar ook gebrek aan goede videokaarten in servers.
Wat ik hier lees zijn commentaren die bijna allemaal geschreven zijn vanuit de beperkingen en niet vanuit de mogelijkheden. Waarom? Waarschijnlijk omdat veel is geschreven met een enigszins vertroebelde perceptie en vanuit de ervaring met de huidige omgevingen en beheerorganisaties. Want er is in veel gevallen jaren gewerkt en er zijn tonnen of miljoenen uitgegeven om die omgevingen een beetje fatsoenlijk op de rit te krijgen en nu komt er opeens een oplossing voorbij die met behulp van de nieuwste techniek en inventieve oplossingen teruggrijpt op de oorspronkelijke gedachte van en mogelijkheden voor de eenvoud en het gemak die IT zou kunnen brengen. Jawel, het Mainframe concept.
Ondertussen is het in IT land flink uit de hand gelopen en het vervelende is dat de meesten in hetzelfde kringetje blijven ronddraaien. Daar komt bij dat er zat organisaties zijn die afhankelijk zijn geworden van hun IT omgeving. De IT is dan niet meer in dienst van de organisatie, maar de organisatie bestaat (kan nog bestaan) bij de gratie van de IT. Dat zijn vaak ook de organisaties waar vanuit de IT de meeste weerstand gevonden wordt tegen oplossingen die daadwerkelijk leiden tot efficiency en kostenbesparing. Ook IT dienstverleners die leven van beheer staan niet te juichen dat ze dat beheer bij hun grote klanten opeens voor de helft van het geld kunnen doen, dus roepen ze om het hardst dat de techniek nog niet volwassen is, of zelfs dat het helemaal niet kan.
Dat Microsoft en anderen hun licentiestructuur er niet eenvoudiger op maken is onder andere het gevolg van het feit dat via een goede VDI oplossing voor meerdere gebruikers maar 1 licentie nodig is. Je betaalt tenslotte per actieve gebruiker en via VDI management is heel goed te regelen dat een gebruiker steeds een andere gebruiker is, zodat de licentie optimaal wordt benut. Met betrekking tot het OS is het nog mooier (of erger ? voor MS) omdat met een enkele versie duizenden gebruikers kunnen worden bediend en er niet, zoals bij fat clients, per computer een OS nodig is.
Er valt nog wel meer over te zeggen, maar duidelijk is dat de bedreigingen van virtualisatie-oplossingen voor veel partijen zwaarder wegen dat de gigantische mogelijkheden die het concept in zich heeft om IT daadwerkelijk in dienst te stellen van de business. Want wie wil er nou simpele, goedkope, makkelijke, beheerbare en groene IT?
Het belangrijkste rendement bij de implementatie van nieuwe ICT-oplossingen moet mijns inziens bij 2 partijen worden behaald: De eindgebruiker en de IT-beheerorganisatie (hoe groot of klein ook). Virtualisatie is maar een middel om dit te realiseren. Wees als ICT-leverancier (trusted Advisor) opbouwend kritisch tov de grote leveranciers die ons allemaal mega besparingen en eenvoudig beheer beloven, met technieken die geen proven technology zijn en veel complexiiteit met zich brengen. Vele virtualisatielagen(storage, servers, applicaties, desktops, netwerken) maken het geweldig complex voor de beheerders. Er is een evolutie aan de gang mbt applicatie- en desktopmanagement, maar kies wel bewust voor de oplossingen die uw eindgebruikers en beheerder het werk optimaal en effcient kan doen.