Onderzoeksbureau Gartner noemt thin provisioning de volgende revolutionaire stap in virtualisatie van opslagsystemen, Equallogic roemt het gebruiksgemak en de kostenreductie, en geeft de benodigde software gratis bij zijn systemen. Anderen zien slechts een hype en vrezen datacorruptie door een simpele onoplettendheid.
John Joseph, vice president Marketing bij Equallogic, brengt het als het ei van Columbus: thin provisioning. Elke opslagleverancier heeft het er tegenwoordig over en brengt het als nieuws als zijn hardware met deze functionaliteit is uitgerust. Joseph heeft maar een paar grafieken nodig om uit te leggen hoe het werkt en welke voordelen de methode oplevert.
Eenvoudig gezegd: thin provisioning is een methodiek waarbij je tegen een applicatie (lees: server) zegt dat hij bijvoorbeeld 1 terabyte aan opslag tot zijn beschikking heeft, terwijl er in werkelijkheid slechts 100 megabyte tot zijn dienst staat (of dat nou in een NAS of SAN is). Met andere woorden: een logisch volume van 1 terabyte, terwijl het fysieke volume niet meer is dan 100 megabytes. Het lijkt inderdaad de natte droom van elke opslagbeheerder, of applicatiebeheerder. Het is immers heel moeilijk te voorspellen hoeveel ruimte de gebruikersgemeenschap de komende jaren nodig zal hebben om data op te slaan. Wie weet hoe het e-mailgebruik zich binnen de organisatie in de nabije toekomst gaat ontwikkelen?
Als een schijf – toegekend aan een applicatie – vol dreigt te lopen, moet er een nieuwe schijf worden bijgeplaatst. Dat lijkt makkelijker dan het is. Meestal betekent het dat de applicatie stil moet worden gelegd gedurende het proces dat de uitbreiding wordt geplaatst en de applicatie een nieuw logisch volume krijgt toegekend. Als het tegenzit, is een complete migratie nodig van alle data. En als die data in een gevirtualiseerde omgeving via blocks zijn weggeschreven, dan is dat een heel gepuzzel. Thin provisioning is hier de reddende engel.
Besparingen
Want met de nieuwe methodiek is het mogelijk dynamisch LUN’s (Logical Unit Number) toe te kennen aan applicaties (HDS gebruikt dan ook bijvoorbeeld de term dynamic provisioning) zonder dat de boel hoeft te worden platgelegd. De applicatie denkt immers dat hij nog honderden megabytes te gaan heeft in zijn LUN en gaat op de gewone voet verder. De beheerder moet er dan wel tijdig voor zorgen dat de fysieke volumes er ook werkelijk zijn.
“Onze software zorgt ervoor dat de beheerder op tijd – dat moment kan hij trouwens zelf instellen – een signaal krijgt om zijn bestelling te plaatsen en een nieuwe schijf in te bouwen. Daar moet hij wel op tijd bij zijn, want het kan natuurlijk soms wel een week duren voordat je een schijf in huis hebt”, zegt Joseph.
Hij rekent voor dat deze oplossing heel wat geld scheelt. “Om het probleem van volrakende schijven te voorkomen, stoppen beheerders de racks vol met schijven. Waarvan dus een groot deel gedurende lange tijd helemaal niet wordt gebruikt. Weggegooid geld. Bovendien hoeven beheerders niet zo vaak in actie te komen als bij de conventionele methode.” Een aantal grote klanten van Equallogic in Nederland zal blij zijn met de nieuwe voorzieningen. Joseph heeft het dan bijvoorbeeld over Mammoet, Endemol, Grafisch Lyceum Utrecht, hostingbedrijf Virtu uit Arnhem, keukenfabrikant Bribus, en de universiteiten in Delft en Groningen.
Gartner is het met hem eens. “Thin provisioning verlaagt de energie- en koelingkosten door vermindering van het aantal fysieke schijven dat nodig is om een gegeven hoeveelheid data op te slaan. Deze besparingen zijn een eigenschap van de verbeteringen in gebruiksratio en de waarschijnlijkheid dat de prestatieverbeteringen door thin provisioning het mogelijk maakt data op te slaan op schijven met een hoge capaciteit in plaats van op de duurdere schijven met betere prestaties. Om deze besparing in perspectief te plaatsen: een verbetering van een gebruiksratio van dertig naar zestig procent betekent een halvering van het aantal schijven dat nodig is om een gegeven werklast te dragen”, aldus analist Stanley Zaflos in zijn rapport ‘Thin Provisioning Is Revolutionizing Storage Management’.
Voordelen
Beheerders hoeven niet meer te gissen hoeveel opslagruimte zij de komende tijd nodig zullen hebben. Maar Joseph ziet meer voordelen, vooral in combinatie met een compleet gevirtualiseerde opslagomgeving. “Dan komen we terecht bij de derde generatie opslagsystemen”, vertelt hij. Alle op te slaan data zijn dan verdeeld over een pool van arrays; het maakt de applicaties niet uit waar de gegevens fysiek worden opgeslagen. Voor de gebruiker zijn ze altijd (op dezelfde manier) zichtbaar.
“De beheerders kunnen er bij wijze van spreken mee spelen”, legt Joseph uit. “Ze kunnen naar believen bij- en zelfs afschakelen. Daar is nauwelijks enige training voor nodig. En ze krijgen deze mogelijkheden er gratis bij.”
Nogmaals Gartner-analist Zaflos: “Thin provisioning brengt virtualisatie naar de volgende evolutionaire stap door ruimtetoekenning te koppelen aan schrijfactiviteit. De voordelen van deze evolutionaire verbetering zijn verstrekkend. Zij bevatten verbeterde productiviteit van beheerders, grotere tevredenheid bij eindgebruikers (die immers geen nee krijgen te horen als zij meer opslagruimte vragen), verhoogde opslaggebruiksratio, betere voorspelling van de capaciteit, lagere milieulasten en lagere kosten.”
Erg riskant
Toch is niet iedereen overtuigd van de kwaliteiten van thin provisioning, om niet te zeggen sceptisch. Jerry Rozeman bijvoorbeeld, manager Consultancy bij opslagspecialist Isit (tegenwoordig onderdeel van Telindus). Hij noemt de technologie zelfs gevaarlijk.
Op zichzelf vindt hij de oplossing een hype. “Iedereen heeft het erover, maar ik vind de toegevoegde waarde maar beperkt. Tegenwoordig ondersteunen de jongste besturingssystemen uit zichzelf wel dynamische provisioning, alleen weet bijna niemand dat. Alleen VMware ondersteunt het nog niet. Zodra dat het geval is, dan gaat iedereen de technologie gebruiken. Maar dan hoeft het niet meer te worden meegeleverd met de opslagapparatuur, ook al vragen sommige leveranciers er geen geld voor.”
Rozeman noemt thin provisioning ‘relatief gevaarlijk’. “Eigenlijk wordt iedereen gefopt. De applicatie, de eindgebruiker, maar ook de beheerder”, legt hij uit. “Je moet heel goed in de gaten houden hoeveel fysieke opslag je tot je beschikking hebt, want op het metertje staat dat je nog mijlenver vooruit kunt, terwijl dat feitelijk niet het geval hoeft te zijn. We weten allemaal dat je in een vlaag van onoplettendheid wel eens iets verkeerd kunt doen.”
Vooral defragmenteren, dat vrijwel onopgemerkt gebeurt, kan problemen opleveren. Zeker in combinatie met snapshots die als ze worden gemaakt geen ruimte innemen, maar bij wijzigingen van files op Block-niveau wel. En bij defragmentatie ziet een snapshot alleen maar wijzigingen; de werkelijke data kunnen dan zomaar een factor twee toenemen.
Applicatiecrash
Het kan dan zomaar gebeuren dat je ongemerkt over de beschikbare capaciteit heen schiet en vervolgens de applicatie crasht. Dat is op zich al erg, omdat niemand er gedurende de downtime mee kan werken en de beheerorganisatie al het andere werk moet laten vallen. “Maar het is rampzalig als een applicatie crasht als gevolg van te weinig schijfruimte, want dan raken de data corrupt. Dan moet de beheerder gaan restoren, en dat kost nog meer downtime. Erg riskant dus.”
Wanneer is het dan wel nuttig? “Bij een omgeving met een voorspelbare groei, zodat je ruimschoots op tijd weet wanneer je moet bijschalen.” Waarmee Rozeman meteen een poot onder thin provisioning-stoel wegzaagt. De technologie zou namelijk juist nuttig zijn voor omgevingen met een onvoorspelbare groei, omdat de beheerder dan niet hoeft te gissen naar de benodigde fysieke ruimte.
Naar mijn mening is deze technologie leuk, maar zeker niet wenselijk. Naar mijn mening wordt te puur naar opslag capaciteit gekeken wordt terwijl performance nauwelijks aandacht krijgt.
Vooral wanneer men de stap van DAS naar SAN voor het eerst gaat maken koopt men een entry level SAN, stopt hier 8 500GB@10K disken in en men heeft 4TB opslagruimte.
In de DAS situatie had men echter per server 5 of meer schijven in een Raid 1 + Raid 5 setup. Nu gaat men alle IO verplaatsen naar een SAN met slechts 8 disken en ontdekt men dat de performance om te huilen is.
De meer ervaren consultant gaat in zo’n situatie eerst gedegen onderzoek doen naar de performance behoefte en komt bijv. met een oplossing met 16 disken van 300GB@15K of 24 disken van 146GB@15K. Allemaal oplossingen waarbij om en nabij de 4TB wordt geboden, maar waarbij de performance ipv. 1000IOPS naar 2400 of zelfs 3600IOPS gaat.
Thin Provisioning gaat zorgen dat men nog minder disken gaat kopen dan performance wise al een minumum zou zijn en gaat dus voor grote IO bottlenecks zorgen.
Persoonlijk zou ik als beheerder ook gewoon willen zien hoeveel fysieke ruimte er vrij is en hoeveel er toegewezen is. Zoals al eerder aangegeven kunnen de meeste besturingssystemen probleemloos omgaan met het online vergroten van een LUN en de daarbij behorende logische disk.
Ik ben het dus eens dat Thin Provisioning een hype is en meer ellende dan profeit zal brengen.
In deze tijd waarin we zoeken naar een mogelijkheid om de gekochte disks ook werkelijk te gebruiken, is thin provisioning in ieder geval iets wat helpt.
Ik vind de opmerking dat het gevaarlijk is en dat je het in voorspelbare omgevingen moet gebruiken dan ook niet juist. In een voorspelbare omgeving kan ik ook aankopen voorspellen en diskgroei implementeren. Ook die beheerder die precies wil weten wat er nog beschikbaar is, is van een achterhaalde tijd. In deze tijd met veel dynamiek en snel veranderende omgevingen, is het toepassen van deze technologieen de enige weg die bewandeld kan worden. Het aantal TB per beheerder neemt alleen maar toe, dus leg je toe op de middelen die je krijgt om er optimaal gebruik van te maken.
Voor wat betreft de performance zou ik de uitdaging zonder meer aangaan. Ook in een omgeving met hoge performance eisen is thin provisioning heel goed toe te passen. Denk maar aan DB die veel meer vraagt dan dat er ooit gebruikt zal worden.