Wanneer beslissingen over ICT-investeringen uitsluitend aan de hand van ROI-berekeningen worden genomen, worden kansen op innovatie gemist en komt de evolutie van ICT en organisatie tot stilstand. In het eerste deel van dit tweeluik keken we naar innovatie en techniek, in dit tweede deel kijken we naar ict-beheer.
In de klassieke desktopomgeving heeft ict-beheer te zorgen voor iedere afzonderlijke pc in de organisatie. In de virtuele situatie zijn de pc-basiselementen (besturingssysteem, applicaties, bestanden en instellingen) gecentraliseerd op servers in het datacenter. Dit impliceert dat ook het ict-beheer centraal kan worden uitgevoerd. Binnen moderne datacenter-beheertools, zoals SCCM of RES Automation Manager (of grootschaliger bijvoorbeeld onderdelen van CloudStack), zijn er tal van voorzieningen die dit centrale beheer automatiseren. Ook de distributie van software en apps kan in hoge mate worden geautomatiseerd, inclusief de administraties rond licenties en versiebeheer. Er kan zelfs een selfservice shop voor software worden gecreëerd.
Al met al verandert het werk van de ict-beheerders aanzienlijk. Zij zijn minder tijd kwijt aan de klassieke (helpdesk) taken en krijgen daarmee meer ruimte om aan innovaties die de business dienen te werken. Dit betekent dat hun salaris in principe verandert van een kostenpost in een investering. Dit heeft een zeer positieve uitwerking op de return on investment (roi)-berekeningen. Ook inhoudelijk verandert het werk van de beheerder sterk. Kon men voorheen met wat ingrepen een onwillige pc weer aan de praat krijgen, in de virtuele wereld moet er het besef zijn dat het doorvoeren van een verandering van invloed is op alle devices die inloggen. Het is daarom goed om bij een migratietraject naar een virtuele infrastructuur de ict-beheerders in een vroeg stadium bij de veranderingen te betrekken en voor opleidingen te zorgen.
Invloed op management
Het buitengewoon decentrale klassieke concept met desktop- en laptop-pc’s is vanuit het oogpunt van veiligheid moeilijk onder controle te houden. Doen de mensen met die pc’s wat bij hun taakinhoud hoort? Of zijn er andere dingen gaande? Laat iemand bedrijfsinformatie lekken? En de centrale vraag voor modern management: hoe toon ik aan dat deze organisatie compliant is, dus werkt volgens de geldende wet- en regelgeving? In de virtuele, gecentraliseerde ict-infrastructuur kunnen wel vele effectieve beveiligingsvoorzieningen worden ingebouwd.
Ten eerste is er de mogelijkheid om data contextgevoelig vrij te geven, dat wil zeggen naar gelang degene die erom vraagt, de plek en het tijdstip waarop dit gebeurt. Alles wordt geregistreerd, dus ook wie bijvoorbeeld ongeoorloofd toegang tot bestanden probeert te krijgen. Ook gedeelde informatie wordt vastgelegd, om aan te kunnen tonen dat compliant gehandeld is. Het management kan worden voorzien van onnoemlijk veel rapportages; van uiterst gedetailleerd tot globaal.
Binnen het nieuwe werken (hnw) is het gebruikelijk om de tijdsduur voor taken te kwantificeren. Op die manier is het mogelijk om ook de prestatie van degenen die thuis of elders werken, op waarde te beoordelen.
Tot slot nog een heel basaal veiligheidaspect. Als een desktop- of laptop-pc met lokale data wordt gestolen, is er gerede kans dat er heel wat bedrijfsinformatie in verkeerde handen komt. In de virtuele infrastructuur zijn applicaties en bestanden opgeslagen op servers in datacenters, die als het goed is ontwikkeld zijn tot een onneembare vesting.
Kortom, het nieuwe werken en desktopvirtualisatie zijn veel meer dan het personeel in de gelegenheid te stellen om soms thuis te werken. De invloedsfeer reikt veel verder, via software selfservice en gecentraliseerd beheer van de infrastructuur, tot aan de voorwaarden om compliant te kunnen opereren als organisatie. En dan hebben we het nog niet over de macro-economisch/sociale implicaties, zoals files en kantoorbouw. Het gaat hier om innovatie in optima forma. Met desktopvirtualisatie verkrijgt een organisatie een infrastructuur die aansluit bij maatschappelijke en arbeidsrechtelijke ontwikkelingen, waarmee de basis voor een gezonde roi wordt gelegd.
Remco,
Stellen dat de helpdesk kan werken aan innovatieve oplossingen, van kostenpost in investering veranderd gaat alleen op als de mensen ook enige ‘ondernemingsgeest’ hebben. De uitzonderingen daar gelaten is mijn ervaring dat je hier al direct een zwak punt in je betoog hebt omdat er meestal niet zo snel ‘out-of-the-box’ gedacht wordt. Nu had ik vlak voor kerst ook al wat geschreven over desktopvirtualisatie in het stuk:”Oud maar nog niet vervangen” omdat de business wel mobiliteit wil maar geen aanpassing van de applicaties waardoor IT dus nog steeds elke vraag met techniek blijft beantwoorden. Wil je echt de ROI verbeteren dan moet je dus niet vanuit de techniek maar de service denken door applicaties te moderniseren, OS agnostic te maken en te enablen voor de cloud. Scheelt je direct een flink stuk in je OpEx omdat je in één keer veel minder puntoplossingen nodig hebt zoals SCCM/RES/SCSM en vele andere licenties.
Natuurlijk komen we met alle hulpmiddelen een heel eind richting self-service maar als ik kijk naar welke inspanning en investeringen er nodig zijn in verhouding tot verbetering in beveiliging en productie dan lijkt het me nogal: “Penny wise and pound foolish” Maar dat komt waarschijnlijk doordat er soms ‘systeemblindheid’ is waardoor het probleem bij de tool gezocht wordt in plaats van andersom. Betreffende applicatie (performance) management is trouwens ook nog veel te winnen als bij ontwikkeling eens rekening gehouden werd met beheer. Net als met de beveiliging omdat hiervoor vaak weer extra technische middelen nodig zijn met niet zelden een vendor-lock en frustratie tot gevolg.
Bovenstaande haalt het natuurlijk niet tegen jou mooie volzinnen:- “Met desktopvirtualisatie verkrijgt een organisatie een infrastructuur die aansluit bij maatschappelijke en arbeidsrechtelijke ontwikkelingen, waarmee de basis voor een gezonde ROI wordt gelegd.” – Klinkt alsof Het Nieuwe Werken een recht is;-)
Remco,
Het eerste deel van je artikel heb ik even overgeslagen. Dat komt doordat dat deel, in tegenstelling tot dit deel heel lang was. Wellicht kom ik later op dat deel terug. Hopelijk worden je volgende artikelen beter opgedeeld.
Ik vind dat je het VDI concept in je artikel veel mooier maakt dan wat het is! Meer dan 90% van de VDI projecten vallen duurder uit dan wat er eerst begroot was. Jammer dat je niet dit soort zaken in je artikel benoemd hebt. Hierdoor betwijfel ik de neutraliteit van je advies.
In een VDI architectuur worden de traditionele beheerzaken van gebruikersdesktop naar datacenter verplaatst. Daar bovenop komen nog veel beheer lasten die afkomstig zijn uit complexe VDI architectuur. Daarom vind ik je bewering dat de beheerders in dit concept het minder druk hebben zeer ontrecht. Er zijn nog betere oplossingen waarmee je de voordelen van VDI kan realiseren tegen lagere kosten en zeker minder complexiteiten. Dit heeft zeker positief effect op je ROI.
Er zijn nog meer punten in je artikel die ik niet objectief vind. Misschien komen andere lezers hierop terug!
Ik weet dat ik in herhaling verval, maar aangezien mijn vraag in reactie op deel 1 nog niet beantwoord is:
– wie doet het beheer van de systemen waarmee ik de virtuele omgeving benader?
– zijn de kosten van de systemen waarmee ik de virtuele omgeving benader ook meegenomen in de ROI berekeningen?
In mijn simpele beredenering is een PC + een virtuele omgeving qua beheer nog steeds duurder dan alleen een PC met “gewone” omgeving….
@PaVaKe
Ik ben het (niet helemaal) met je eens betreffende virtualisatie van desktops/applicaties omdat er namelijk valide redenen zijn om dit te doen. Bijvoorbeeld omdat er nog legacy systemen zijn die op deze manier goedkoper gebruikt kunnen worden. Of om de beheersinspanning van patches aanbrengen op applicaties drastisch te verlagen en zo zijn er nog wel een paar argumenten te noemen hoewel de ’terugverdientijd’ uiteindelijk nog een paar andere afhankelijkheden heeft. Dat alles is dus iets anders dan desktopvirtualisatie te promoten als essentieel onderdeel van Het Nieuwe Werken en daarin geef ik je dus gelijk. Maar aangezien ik de indruk heb dat deze opinie geschreven – of in ieder geval flink geredigeerd – is door het een PR bureau zullen we ons maar niet druk maken om de irrelevantie argumenten;-)
Betreffende VDI is het ook al weer enige tijd geleden dat ik een vergelijk gemaakt heb van de vele oplossingen waarmee niet alleen de verschillen in functionaliteiten naar voren kwamen maar vooral ook in prijs. Opmerking van Reza over eenzijdigheid van schrijver over het onderwerp is dan ook wel terecht. Dit zie je trouwens ook bij server virtualisatie waarbij de hypervisor tegenwoordig gratis is maar je ‘leeg loopt’ op alle toeters en bellen voor het beheer. Het is echter maar de vraag of je al die extra’s nodig hebt wanneer je de business case omdraait en van IT weer de ‘enabler’ maakt in plaats van de ‘pleaser’ van de gebruiker. Want vaak is de front-office wel modern en redundant uitgevoerd maar is het achterland waar het geld verdient wordt nog een puinhoop. Maar ja, de Theory of Constraints van Eliyahu Goldratt is nog niet bij iedereen in de IT doorgedrongen.
@Ewout: weet je wat ik nu zo jammer vindt? Dat ik dit antwoord van jou krijg (of ondertussen bij deel 1 van HK) in plaats van dat de auteur reageert op vragen/opmerkingen op zijn artikel.
Maar voor legacy systemen heb je helemaal gelijk; doen we in mijn werkomgeving ook op vergelijkbare manier. Echter, de legacy systemen zijn maar een kleine druppel op de grote gloeiende plaat die IT beheer heet.
Wat ik proef in veel van deze artikelen is dat we de desktops willen virtualiseren, en dat men in het kader van HNW met eigen devices de virtuele omgeving kan benaderen. Vanuit kostenperspectief gezien ideaal, omdat je een deel van je kosten teruglegt bij je werknemer (zijnde het own device).
@PaVaKe
Misschien dat de auteur nog gaat reageren, heb ik tenslotte vaker zien gebeuren hier bij Computable.
Ondertussen kunnen we de ruimte gebruiken voor een discussie over legacy omdat dit ook vaak als een verkoopargument gebruikt wordt zonder dat de voor- en nadelen echt duidelijk gemaakt worden. Stellen dat legacy systemen maar de kleine druppel zijn op de gloeiende plaat betwijfel ik omdat ‘achterland’ van veel architecturen ongewijzigd blijft en VDI of desktopvirtualisatie alleen maar de nieuwe interface is. Maar hier schreef ik, zonder fancy termen als RoI e.d. te gebruiken, al wat over in: “Oud maar nog niet vervangen”
Van daaruit had ik gisteren met collega’s een leuke technische discussie tijdens de lunch over prestatie(normen) waarbij we effectiviteit en efficiëntie probeerden af te zetten tegen waarden als MIPS, FLOPS en GHz in verhouding tot legacy als pen en papier. Hoewel we er niet uitkwamen waren we het er in elk geval over eens dat we zeker de bogoMIPS in het proces niet mochten vergeten;-)
@Ewout & PaVaKe,
Zoals PaVaKe heb ik ook eerder opgemerkt dat dit artikel meer een marketingsausje heeft van een technologie/oplossing (VDI) zonder de juiste onderbouwing en argumentatie. Ik zeg niet dat VDI geen goede oplossing is maar wel dat de inhoud en onderbouwing van dit artikel niet objectief opgesteld zijn en ook dat dit artikel met een tunnelvisie geschreven is.
Wat nog verder zeer jammer is is de afwezigheid van de auteur om de discussie te begeleiden. Maar goed dat is niet iets nieuws op deze site, helaas!
Ik ga binnenkort een kort artikel schrijven dat gebaseerd is op een rapport over ict-zaken van een branche. Daar zal ik zeker effectiviteit en efficiëntie afzetten tegen legacy.
To Be Continued
============================================
Offloaden van I/O`s in een VDI architectuur is een ellende die veel tijd en geld gaat kosten.
Voor de liefhebbers van VDI, tijd geleden was op Computable een bericht over een softwareoplossing die I/O`s van VDI kon offloaden.
https://www.computable.nl/artikel/nieuws/infrastructuur/4613972/2379248/agentschap-nl-virtualiseert-met-virsto.html
VMware heeft gisteren deze oplossing overgenomen!