Server based computing (SBC) vindt zijn volgende generatie in VDI-oplossingen. Dat waar iedereen al jaren over praat, wordt nu realiteit en de hypervisor wint gestaag van published applications en terminal servers. Hoe gaat de toekomst van SBC eruit zien?
Hypervisors. Volgens sommigen het ei van columbus, anderen zijn kritischer. Menigeen verwacht een enorme concurrentiestrijd tussen leveranciers om marktleider te worden op het gebied van hypervisors. Maar hoe interessant kan die strijd worden en wat gaat die strijd uiteindelijk opleveren voor de markt? Dat de strijd commercieel interessant wordt is duidelijk. Vooral voor de winnaar. Maar dan moet die strijd er wel komen. En kijkend naar eerdere innovaties zie ik twee mogelijkheden. Er komt een strijd op basis van onderscheidend vermogen tussen de verschillende hypervisors of de winnaar heet Microsoft. Persoonlijk verwacht ik dat Microsoft nog even afwacht en uiteindelijk een kleinere ambitieuze partij met een hypervisor inlijft. Daarna wordt met een enorm marketingbudget voor die hypervisor een leidende positie in de markt gecreëerd.
Voor hypervisors maakt het niet zo gek veel uit wie de marktleider wordt. Technologisch is er maar heel beperkt onderscheidend vermogen. De hoofdlijn is dat hypervisors complete hardwareconfiguraties zoals fat clients virtualiseren. Alles eromheen is bijzaak. Het effect dat hypervisors kunnen hebben op gebruikersorganisaties in termen van TCO en ROI is beperkt. In het beheer is het makkelijk dat alles centraal gepositioneerd wordt en snel opgeleverd kan worden. Het scheelt reistijd voor beheerders en wachttijd voor gebruikers. Dat biedt elke hypervisor. Maar met het virtualiseren van fat clients komt ook alle bekende narigheid mee. Conflicterende applicaties, het actief moeten borgen van standaardisatie, iedereen zijn eigen lokaal geïnstalleerde applicaties en niet te vergeten het beheer voor elke individuele gebruiker en van elk werkstation afzonderlijk. Daarmee blijft ook de behoefte aan allerlei kostbare aapjes in een infrastructuur die kunstjes kennen om veelvoorkomende werkzaamheden over te nemen. Denk daarbij aan deploymentoplossingen, update servers, etc.
Hypervisors worden pas echt interessant in combinatie met connectoren. En in die connectoren zit wel onderscheidend vermogen. Goede connectoren maken het mogelijk om gebruik te maken van echt efficiënte werkplekapparatuur. Als er helemaal geen intelligentie op de werkplek hoeft te zijn, zelfs niet in de vorm van een embedded besturingssysteem in een thin client, hoeft er op de werkplek ook geen enkel onderhoud meer plaats te vinden. De Sunray is hiervan een mooi voorbeeld. De werkplekapparatuur wordt echt volledig onderhoudsvrij en met behulp van linked clones is elke nieuwe desktop niet meer dan een volgende kopie van een basis image. Een ander voordeel van dergelijke ultra thin clients is de enorme besparing op het energieverbruik.
Zo kom je dan bij de eerste generatie VDI: de virtuele FAT-client. Maar helaas wel met alle narigheid die we kennen van FAT-clients zoals mogelijke applicatieconflicten, behoefte aan enorme opslagcapaciteit, steeds meer RAM nodig per werkplek, extra processen om standaardisatie te borgen en vooral beheerprocessen gericht op elk (virtueel) werkstation afzonderlijk. Juist die uitdagingen, problemen die voor fysieke werkstations opgelost konden worden, komen met VDI weer terug. Zo zie je maar, als je sh… virtualiseert blijft het stinken.
Hoe mooi is het als in de VDI-omgeving de traditionele problemen ook weer opgelost zijn? Maar ja, voor virtuele werkstations weer een additionele infrastructuur inrichten met deploymentoplossingen, terminal servers, SBC-platformen en dergelijke voorzieningen levert nauwelijks rendement. Het levert een infrastructuur met een waterhoofd op, met als enig doel om aan symptoombestrijding te gaan doen. Op hetzelfde moment is de energiebesparing weer goeddeels teniet gedaan en elk financieel voordeel verloren.
Anno 2009 is een andere manier van denken gewenst. Als we afstappen van de traditionele pc die we willen nabootsen en controleren, kunnen de voordelen van server based computing, VDI en cloud computing worden gecombineerd in een volgende generatie van VDI: zeg maar VDI 'in optima forma'.
De essentie van VDI 'in optima forma' is de applicatierepository in de VDI-omgeving. Iedere gebruiker gebruikt applicaties uit die repository. Dat is flexibel, veilig en spaart opslagcapaciteit uit. Door de extreme virtualisatie hoeft een image voor een werkplek maar 1,2 GB groot te zijn in plaats van 15 GB. Aan virtuele RAM is slechts 384 MB nodig in plaats van 2 GB. Er kan 70 procent energiebesparing bereikt worden door het toepassen van ultra thin clients en er zijn veel minder servers nodig. Kun je met VDI, SBC en terminal servers maximaal enkele tientallen gebruikers gelijkertijd bedienen, bij met VDI 'in optima forma' worden eenvoudig 120 gebruikers of meer met een enkele server bediend.
Belangrijker nog is het enkelvoudig beheer. Er is slechts één master image van een werkplek te onderhouden waar iedereen gebruik van maakt. Er is ook van elke applicatie maar één geïnstalleerde versie te onderhouden voor iedereen die er gebruik van maakt. Er zijn geen aapjes meer nodig in de infrastructuur om repeterende werkzaamheden uit te voeren, want er hoeft niets herhaald te worden. Standaardisatie is impliciet geworden. En als er iets fout gaat in een applicatie of met een werkplek, hoeft herstel slechts seconden te duren. Voor een beheerder een paar muisklikken, voor een gebruiker nauwelijks effectiviteitverlies. Daar waar vroeger een technisch beheerder nodig was voor elke 120 tot 150 gebruikers, kan met VDI 'in optima forma' een technisch beheerder net zo makkelijk 120 gebruikers ondersteunen als duizend, vijfduizend, tienduizend of nog meer.
In welke opzichten is VDI 'in optima forma' revolutionair? Technisch gezien is het dat zeker en voor het technisch beheer is het dat eveneens. Wat ondanks dat niet verandert is de ervaring van gebruikers. Die krijgen nog altijd een ‘gewone' Windows-desktop met hun bekende applicaties. Wat voor gebruikers verandert zijn snelheid en applicatiebeschikbaarheid. Linked clones zijn niet meer nodig, waardoor de snelheid verder toeneemt. Niet langer last van conflicterende applicaties, de mogelijkheid van meerdere versies van hetzelfde naast elkaar, uitrol of herstel van applicaties in enkele seconden, het is allemaal realiteit. Geen technische noodgrepen meer en geen concessies ten aanzien van functionaliteit. Doordat de onderliggende techniek niet langer een belemmering oplevert.
Een van de meest gestelde vragen in Nederland, bij nieuwe ontwikkelingen, is "Wat kost dat?". De inrichting van een VDI 'in optima forma' omgeving is voor wat betreft de initiële investering vergelijkbaar met een traditionele pc-omgeving en soms zelfs goedkoper.
De vraag "Wat levert het op?" is des te interessanter. De voordelen komen vooral tot uiting na oplevering. Reductie van energieverbruik en -kosten met circa 70 procent. Reductie van TCO met 50 procent. Er zijn geen additionele investeringen nodig in deploymentoplossingen, updateservers en andere aapjes die kunstjes kunnen nadoen. Alles bij elkaar is VDI 'in optima forma' zeer snel terug te verdienen, meestal binnen een jaar. Binnen een boekjaar kan je investeren, implementeren, terugverdienen en rendement binnenhalen. Investeren in VDI 'in optima forma' is daarmee een bezuinigingsmaatregel.
Het meest opvallende antwoord komt in reactie op de vraag "Wanneer kan ik het hebben? 2013?". Nee, gisteren! Jouw toekomst is al begonnen, VDI 'in optima forma' is beschikbaar. Het wordt al intensief toegepast, de technologie heeft zich reeds bewezen. Er rest eigenlijk maar één vraag: Waarom heb jij nog geen VDI 'in optima forma'?
Een image van 1,2 GB?
384 MB memory?
En dan zeg jij dat de gebruiker er blij van wordt?
En dan lees ik ook nog eens dat je 150 images draait op 1 Vmware server.
Ik zou zeggen, doe er mij maar een paar!
Al die zooi is toch niet meer nodig als je volledig browserbased gaat werken ? Deployment van applicaties naar clients behoort dan toch ook tot het verleden? Volgens mij is dit product geen lang leven beschoren…
@Nick: Lees nog eens goed Nick. Volgens mij heb je het nog niet helemaal goed begrepen.
Jawel hoor, heel goed gelezen.
Het virtualiseren van FAT clients is evenals SBC geen lang leven meer beschoren. Iedere organisatie die zich in deze tijd er nog aan bezondigd om FAT clients (al of via SBC en/of gevirtualiseert) aan haar gebruikers aan te bieden, is zeer onverstandig bezig en gooit geld over de balk.
@Nick: Over welke ‘zooi’ heb je het dan eigenlijk? Het principe is dat je op je werkplek geen Fat Client hebt staan. Je hebt helemaal geen client meer staan, alleen een beeldscherm met een connector. Dat heeft denk ik iedereen wel door.
Hoe kun je dan toch beschikken over al je applicaties en ook nog tegelijkertijd als je dat wilt? Door een image te creeren dat wordt opgebouwd in een centrale repository. Dit image is dus 1,2 GB groot. Van dit image wordt een een kopie gemaakt dat dient als gebruikers image. Het gebruikers image heeft beperkte rechten.
Op het oorspronkelijke image kunnen deze rechten geupdate worden; op het gebruikersimage niet. Als een gebruiker zijn beeldscherm aanzet en inlogt wordt een kopie van het gebruikers image gemaakt en worden op basis van zijn lidmaatschap in de Active Directory de hem toegewezen applicaties geactiveerd en op zijn beeldscherm geprojecteerd waardoor hij ter plekke beschikt over zijn eigen werkomgeving (desktop).
Dezelfde technologie die gebruikt wordt om de repository te bouwen verzorgt de toekenning van rechten op het gebruik van applicaties. Elke gebruiker krijgt aan de basis 384 MB RAM in een central profile store. Ruim genoeg om mee te werken, zijn desktop op te leuken met de foto van zijn vrouw en kinderen en nog wat gimmicks of software te downloaden. Meer dan 384 MB is niet slim. Aanvullen met een swapfile in de virtuele client is goedkoper en werkt sneller.
Als een gebruiker uitlogt, worden zijn actuele settings uit het image gehaald en opgeslagen in dat central profile store. De kopie van het image zelf kan worden opgeslagen maar het hoeft niet. Als je het geheel verwijdert en een gebruiker gaat weer gaat werken, dan wordt er opnieuw een kopie gemaakt van het gebruikers image, worden zijn applicaties geactiveerd op basis van Active Directory groeps lidmaatschap en worden zijn eigen (laatst opgeslagen) settings toegepast.
Handig, want actuele aanpassingen, updates en nieuwe rechten worden ook meteen geactiveerd. Dit duurt 30 tot 60 seconden en de gebruiker kan dus binnen een minuut gaan werken. In geval er een verstoring optreedt, bijvoorbeeld een BSOD, dan maken we de laatste wijziging ongedaan en de gebruiker kan zijn werk weer hervatten.
Er gaat alleen beeldscherminformatie van de server naar de werkplek en toetsaanslagen van de werkplek naar de server. Alles draait in het datacenter, dat ook nog eens veel minder servers nodig heeft.
Met deze oplossing kunnen 2 beheerders 10.000 of meer standaard clients beheren. De 2e is overigens alleen nodig voor vervanging tijdens ziekte en vakantie van de eerste.
Hoe je deze oplossing ‘zooi’ kunt noemen weet ik niet. Ook in de door jouw genoemde browserbased omgeving heb je connectie (via een connector) met het net nodig, evenals onderliggende (gevirtualiseerde) clients om gebruikers een eigen afgeschermde en veilige desktop te kunnen bieden. En dan heb je ook nog een lokale client die apart beheerd moet worden en daardoor onnodig kostbaar wordt. Het meest voor de hand liggend is dat de hier besproken techniek daarvoor wordt gebruikt: Er is niets beters.