Virtualisatie houdt in dat functionaliteit wordt geboden vanuit een alternatieve, technische structuur. De functionaliteit werkt net zo als we gewend zijn, maar het zit technisch anders in elkaar. Die andere techniek brengt vele voordelen met zich mee in termen van stabiliteit, continuïteit, exploitatiekosten, milieubelasting, etc. Maar hoe lang nog?
Op de keeper beschouwd betekent virtualisatie niets meer of minder dan een beter alternatief. Alternatief voor wat? Virtualisatie bestaat slechts bij de gratie van een slechtere maar standvastige standaards. En die standaards kennen we van oudsher als traditionele oplossingen. Storage, besturingssystemen, desktop, applicatie. Zo maar een paar voorbeelden van zaken die we nu beter kunnen dan voorheen. Door gerichte vormen van virtualisatie beperken we de negatieve effecten van de ‘gewone' oplossingen. Maar pakken we daarmee de oorzaak aan of is virtualisatie een vorm van symptoombestrijding? Ik denk het laatste.
Stel nu eens dat de technologie die we nu kennen als virtualisatietechnologie de standaard technologie zou zijn in storage, besturingssysteem, desktop en applicatie. Dan is er geen alternatieve technologie nodig om nadelen te beperken en kunnen we het woord virtualisatie al weer vergeten. Waarom is het nog niet zover?
Door het fenomeen dat we nu kennen als virtualisatie vervagen de grenzen tussen storage, besturingssysteem, desktop en applicatie. Uiteindelijk gaat het erom dat de gebruiker de gewenste functionaliteit beschikbaar krijgt op zijn beeldscherm. Alles daarachter is bijzaak, maar moet als integraal systeem voldoen. Op dit moment is geen enkele marktpartij op zichzelf in staat om een nieuwe integrale standaard te zetten. Welke leverancier heeft de wil om de huidige standaard te veranderen? Er zijn verschillende redenen aan te wijzen om alles te houden bij het oude.
In de eerste plaats is er een commercieel belang. Als technische grenzen vervagen, verandert ook de markt. Die verandering zal alleen worden ingezet door een partij die de overtuiging heeft de nieuwe markt te kunnen leiden. Maar al die virtualisatieproducten verkopen lekker, bovenop de verkoop van de standaardproducten. Grote marktpartijen werken ook niet graag met elkaar samen om een nieuwe standaard te zetten. Degene die als eerste zijn concurrenten kan aftroeven neemt een voorsprong in de markt en die voorsprong ga je niet bij voorbaat delen met een concurrent. En zo doet iedereen zijn eigen ding met zijn eigen product.
Vervolgens is er de applicatiedekking voor virtualisatietechnologie. Er is geen enkele integrale, virtuele oplossing of platform waarbij 100 peocent toepasbaarheid gegarandeerd kan worden voor alle functionaliteit die in traditionele systemen beschikbaar is. Wel zijn er grote verschillen in de mate van applicatiedekking tussen verschillende oplossingen. De bekende producten zijn daarbij niet zonder meer de besten.
Dan is er nog de samenwerking tussen separaat gevirtualiseerde systemen. Dat technisch zaken anders georganiseerd worden mag toch niet betekenen dat de functionaliteit wordt belemmerd? Ook hierin zijn grote verschillen en scoren de grote namen niet de meeste punten.
Tot slot is er een compatibiliteitsprobleem. Virtualisatietechnologie is zo fundamenteel anders dat technologie niet omgewisseld kan worden zonder dat functionaliteit verloren gaat.
Het blijft een uitdaging om als eerste met een geïntegreerd platform te komen. Bij grote leveranciers zie je zo productdifferentiatie en grensvervaging ontstaan. Microsoft doet bijvoorbeeld naast Windows ook Hyper-V en Softgrid en zo zijn er meer voorbeelden te noemen. De grensvervaging is goed zichtbaar, maar geen enkele partij heeft die ene goede, integrale oplossing.
De volgende stap moet cloud computing worden, waarvan voor 2009 en 2010 veel wordt verwacht. Nu al is de overtreffende trap van cloud computing realiteit geworden. Het concept Virtual Storm biedt een platform dat pas in 2012 tot 2014 wordt verwacht. In een virtual cloud komen vele virtualisatietechnieken samen in een geïntegreerd platorm op basis van bestaande producten. Back-ends en front-ends komen samen in één cloud en alle clients maken gebruik van hetzelfde geminimaliseerde basis image met behoud van individuele flexibiliteit. Het biedt maximale efficiency in beheer en infrastructuur in combinatie met maximale functionaliteit voor de gebruiker. Daarmee minimale exploitatiekosten bij maximale effectiviteit, dus maximaal rendement. Met een hele hoge applicatiedekking. De doorslaggevende expertise en de cruciale technologie komen daarbij van kleine onafhankelijke partijen. Die hebben geen exclusieve verbondenheid met welke productleverancier dan ook, maar wel de bereidheid om de kracht van diverse producten en leveranciers te bundelen.
Ik heb het geluk om vanaf het eerste begin bij Virtual Storm betrokken te mogen zijn. Om jou ook alvast een voorproefje te gunnen, wat denk je van:
- Hersteltijd bij uitval van een applicatie in enkele seconden
- Uitrol van een nieuwe versie van Windows in enkele seconden, ongeacht het aantal clients
- 99 procent van alle applicatieverstoringen op te lossen vanuit eerstelijns support
- Applicaties per gebruiker, groep of generiek aan en uit te zetten met een paar muisklikken
- Enorme energiebesparing tot 85 procent
- Ultra thin clients: geen enkele intelligentie meer op de werkplek om te beheren
- Tot enkele duizenden gebruikers zijn te ondersteunen door een enkele operationeel beheerder
- Opstarten van een werkplek in ongeveer een halve minuut
- Opleveren van een nieuwe desktop in enkele seconden
- Significante besparingen op kosten voor hard- en software
- …
Mijn verwachting is dat hier de nieuwe standaard is geboren. Er is geen specifiek commercieel belang bij de oude standaard, applicatiedekking is extreem hoog, samenwerking tussen gevirtualiseerde componenten is maximaal gewaarborgd en compatibiliteitsproblemen zijn slechts uitzonderingen.
Zodra dit de nieuwe standaard is, hebben we geen alternatief meer nodig. Virtualisatie? Het is slechts nog een kwestie van tijd.
quote:
“Maar pakken we daarmee de oorzaak aan of is virtualisatie een vorm van symptoombestrijding? Ik denk het laatste.”
Maar is dit nu zo erg?
Zelf werk ik momenteel in een omgeving waarin we nog ondersteuning moeten bieden aan o.a. Windows NT.
Hardware waarop je NT kunt draaien is nauwelijks nog te verkrijgen; in ons geval bieden VMware-images een goed alternatief.
De oorzaak (de hardware die niet meer gemaakt wordt) kunnen we moeilijk verhelpen, maar ik dit is een goede en zinvolle manier van symptoombestrijding.
Dag Pascal,
Het is pas erg als de gebruikersorganisatie het als erg ervaart. Men is nu voor bepaalde functionaliteit afhankelijk van componenten die niet meer worden ondersteund, zoals Windows NT. Gaat het hier om cruciale functionaliteit of nice-to-have? Hoe toekomstvast is die verouderde oplossing nog? Wat zijn de risico’s als het omvalt? In hoeverre belemmert een ‘oude’ exoot nieuwe ontwikkelingen in de rest van de infrastructuur en welke kansen worden daardoor gemist? Wat kost het operationeel beheer van een verouderd systeem?
Allemaal aandachtspunten waar een organisatie een afweging in kan maken en bewust een keuze in zou moeten maken. En misschien is dan de conclusie dat het inderdaad erg is en het tijd wordt om op basis van funtionele eisen en wensen uit te kijken naar een modern alternatief.
Gezien de huidige begripsverwarring rond cloud computing ben ik bang dat het nog heel lang zal duren voordat we daar over een standaard kunnen praten. Ik neem tenminste aan dat we met standaard niet bedoelen dat iets buiten ons gezichtsveld verdwijnt, maar bijvoorbeeld dat je kunt wisselen van leverancier zonder verlies van functionaliteit – en met behoud van eerder opgeslagen informatie.
Persoonlijk beschouw ik virtualisatie niet als een echt fundamenteel andere manier van werken, maar meer als een evolutie dan een revolutie. In die zin zijn de meeste virtualisatie-vormen gewoon evolutionaire correcties op de manier waarop we tot nu toe gewend waren om ict-toepassingen vorm te geven. Dit geldt bijvoorbeeld duidelijk voor iets als applicatie-virtualisatie. Je brengt daarbij een additionele isolatie-laag aan tussen het operating systeem en de applicatie. Die laag zorgt ervoor dat je bestaande applicaties kunt blijven draaien op bestaande operating systemen, echter (1) zonder ze te hoeven installeren, (2) zonder een onuitwisbare footprint achter te laten en (3) zonder incompatibiliteit tussen verschillende versies van applicaties of libraries. Ook hardware-virtualisatie kun je zo beschouwen als een evolutionaire correctie op de manier waarop we tot nu toe applicaties van hardware hebben ge-isoleerd. Waar we tot voor kort dachten dat een operating systeem wel genoeg was als tussenlaag, stellen we nu met elkaar vast dat een extra hypervisor toch wel handig is om bijvoorbeeld meerdere operating systemen naast elkaar op dezelfde hardware te kunnen draaien of om een machine makkelijker te kunnen migreren.
Ik geloof dus inderdaad niet dat virtualisatie zelf een nieuwe standaard is, hoogstens een nieuwe manier om voor ict-toepassingen verschillende lagen aan te brengen tussen de hardware en gebruiker. Of cloud computing die nieuwe standaard is zal pas over een jaar of tien duidelijk worden denk ik. En de kans dat we dan nog steeds het label cloud computing daarvoor gebruiken lijkt me overigens minimaal, maar dat is verder niet zo relevant.