Uit onderzoek van systeemintegrator Telindus-ISIT onder 445 it-professionals blijkt dat de top drie infrastructuuruitdagingen bij servervirtualisatie bestaat uit security (29 procent), storage (27 procent) en back-up/restore (12 procent). Telindus-ISIT vroeg de it-professionals tevens naar hun favoriete servervirtualisatieplatform. Dat is VMware.
Maar liefst 78 procent van de respondenten geeft de voorkeur aan VMware boven Citrix XenServer (13 procent) en Microsoft Hyper-V (9 procent). Jerry Rozeman, portfolio manager enterprise bij Telindus-ISIT, licht toe: 'Het is goed dat it-professionals zich realiseren dat ze er nog niet zijn met alleen een standaard servervirtualisatieplatform. In de praktijk zien we dat beveiligingssoftware, met name virusscanners, de belangrijkste veroorzaker van prestatieproblemen is bij serverconsolidatie. Leveranciers spelen hier nu op in door de virusscan niet op de servers zelf te laten draaien, maar in de hypervisor-laag. Ook voor back-up/restore geldt dat men vaak vergeet dat de oude omgeving niet meer voldoet na een servervirtualisatieproject en dat essentiële aanpassingen noodzakelijk zijn om geen performanceverlies te lijden. Deduplicatie bij de bron is hier de beste oplossing.'
Caching en deduplicatie
Om prestatieproblemen te voorkomen, is het belangrijk dat bedrijven de laatste technologieën op storagegebied nauwlettend in de gaten houden, zo meent Rozeman. 'Intelligenter omgaan met caching- en deduplicatietechnologie is een belangrijke ontwikkeling die we nu in de markt zien. De grootste valkuil bij servervirtualisatie is dat men verwacht dat het project klaar is met het overplaatsen van alle servers. Het simpel verplaatsen van de servers veroorzaakt echter een performance-nachtmerrie waar niemand in wil belanden. Het is daarom belangrijk om van tevoren naar oplossingen te kijken die met minder opslag toch een hogere performance weten te behalen.'
De performance nachtmerrie wordt veroorzaakt doordat men niet kan/wil snappen waar het probleem veroorzaakt wordt. Inderdaad, het simpelweg overzetten van de servers is de basis van de problemen, omdat de servers niet ingericht zijn op virtualisatie. Om een virtuele server te bouwen moet je in veel gevallen juist het tegenovergestelde doen van wat je met fysieke servers doet.
Een virtuele server moet niet groot zijn maar klein, hoe kleiner hoe beter. Start alleen die applicaties die echt nodig zijn. En zorg ervoor dat er geen ADHD processen draaien, die houden de server actief waardoor er geen resource sharing kan worden gedaan. (Powertop is je vriend hier want die kan aangeven waar het echte probleem zit.) Extra pikant, monitoring, die je nodig hebt bij performance problemen, veroorzaakt juist vaak de problemen. En het ergste is dat je dat nu net niet met die monitoring kan meten.
Het probleem is dat de meeste klanten geen weet hebben van wat virtualisatie is! Ze willen virtualiseren en dat tegen een lage prijs!
Virtualisatie bestaat uit verschillende lagen zoals Hyperv, (virtuele)netwerk, VM`s(meestal Windows OS), SAN-Storage etc. Bijvoorbeeld, men ziet de SAN-Storage in de hoeveelheid van de schijfruimte(ik wil er een met 20 TB) en vergeet de kracht en andere benodigdheden die SAN moet kunnen aanbieden. Ik vind de opmerking van J.Rozeman omtrent SAN-Storage zeer terecht.
Er zijn nog meer zaken die belangrijk zijn voor het ontwerpen van een virtualisatieproject. Denk aan het gedrag van de server! Als je een database server hebt die elke ochtend om 8 uur door een “run” flink moet draaien om de pakbonnen voor de vracht en bestellingen van die dag te maken dan kun je nu al weten wat voor effect dit op je IOPS en je SAN-Storage gaat hebben. Dan ga je klachen over de performance!?
Ik ben van mening dat een virtualisatieproject en de resultaten hiervan mee zullen vallen als je genoeg aandacht besteedt aan de ontwerpfase. Kortom een samenwerking tussen beheerders, database en applicatiebeheerders en (externe) virtualisatie experts zal deze tot een goede einde brengen.
“Het simpel verplaatsen van de servers veroorzaakt echter een performance-nachtmerrie waar niemand in wil belanden.”
Dit is wel heel erg kort door de bocht. Als de schrijver van dit artikel ook zo zijn virtualisatie projecten inschiet dan kan ik ook wel garanderen dat er issues ontstaan. Wanneer er van te voren een juiste assessment van de bron omgeving gemaakt is en er na migratie de juiste aanpassingen aan de machines gemaakt worden (virus scanners, backup methodieken, monitoring software, etc) zijn er doorgaans geen problemen na virtualisatie. Virtualisatie van een server omgeving is niet de oplossing voor sluimerende problemen die met losse servers geisoleerd bleven maar merkbaar worden door het gebruik van een shared hardware platform.
Server virtualisatie leidt niet tot uitdagingen wanneer er op de juiste details gelet wordt, maar is dat niet zo met alle ICT projecten?
Interessant is dat niemand OpenVZ/Virtuozzo of Linux-KVM gebruikt volgens de antwoorden. De vraag is dus welke subset van ‘professionals’ men hier heeft geinterviewd (of dat de mogelijke antwoorden dat allemaal niet toestond). Kneuterige omissie…
@dhe019,
er staat nergens dat men die niet gebruikt (of iets over de kwaliteit ervan), alleen over de verdeling van de top3 van populairste.
Omdat meeste organisaties met virtualisatie een vlucht voorwaarts hebben genomen begint het hier dus pas. Wat de opmerking: “De grootste valkuil bij servervirtualisatie is dat men verwacht dat het project klaar is met het overplaatsen van alle servers” rechtvaardigd.
Wie zijn fysieke server via P2V omzet naar 1 van de hypervisors behoud dezelfde problemen met bijkomende extra complexiteit. Nog meer technologie om dat op te lossen zal maar even een oplossing bieden zoals volgens mij voorgaande reaguurders ook stellen:
@Berry geeft aan dat je moet rationaliseren om footprint van virtuele servers te verkleinen.
@reza en @wiebo stellen terecht dat je eerst moet denken en dan pas doen.
@Wiebo couldn’t agree more!
Wat is de doelgroep, wat is het doel van het onderzoek? De resultaten van het onderzoeken zijn totaal niet in lijn met bijvoorbeeld onderzoeken van Gartner. De oplossingen die worden gegeven hebben geen relatie met het “probleem” maar wel met de core business van de auteur:).
@Reza
Je stelt : “Het probleem is dat de meeste klanten geen weet hebben van wat virtualisatie is! Ze willen virtualiseren en dat tegen een lage prijs”
Niet vreemd toch, dit is immers hoe virtualisatie verkocht wordt, ook hier in diverse artikelen op computable.nl
Overal wordt geroepen dat virtualisatie efficiënter en goedkoper is, dus ik als “domme” klant wil graag virtualiseren tegen een lage prijs…..
@PaVaKe laatst merkte al iemand op dat we naar de cloud moeten… omdat ik het heel hard roep.
Heb stellig de indruk dat dit met virtualisatie ook het geval is. Het gaat hier veelal louter erom dat mensen hun handeltje willen verkopen, meer niet.
@Reza je hebt het over samenwerking tussen database beheerders, applicatie beheerders en virtualisatie experts.
Helaas heb ik moeten vaststellen dat (zij het met andere expertises) het voor zulke mensen vaak niet mogelijk is om zonder bemiddelaar (noem het een projectmanager) tot een goed resultaat te komen.
Te vaak moet het schip vlot getrokken worden, te vaak moet een klust van drie dagen werk drie maanden kosten.
@PaVaKe:
Ik bedoel meer dat klanten, de impact van virtualisatie op hun ICT afdeling en ICT en bedrijfsprocessen niet juist kunnen INSCHATTEN. Virtualisatie kan efficiënt en winstgevend zijn! Afhankelijk van hoe je ICT ingericht is, welke problemen de efficiëntie van je ICT tegenwerken, wat de behoeftes van de gebruikersorganisatie zijn en nog veel andere zaken die in de business case benaderd moeten worden, kan een organisatie de ROI van virtualisatie voor zichzelf duidelijk maken. Dit zijn de stappen die meestal in de praktijk overgeslagen worden of minder aandacht krijgen.