De tijd dat storage uit kale opslag bestond, is voorbij. Er wordt op dit moment zo veel slimme software meegeleverd om de exponentiële datagroei bij te houden, dat men straks moet spreken over effectieve of virtuele terabytes. Tegelijkertijd biedt die trend kansen voor ict-dienstverleners om dichter bij de bedrijfsprocessen van klanten te komen.
Zit je goed in de storage, dan maak je een behoorlijke kans de huidige economische crisis zonder al te veel kleerscheuren door te komen. De afgelopen jaren groeide de behoefte met maar liefst zestig procent per jaar. Die enorme stijging zal dit jaar weliswaar een tikje inzakken, maar omdat de operationele processen niet fundamenteel veranderen, zal die daling heel beperkt blijven. "Die capaciteitsgroei wordt in moeilijke tijden echt niet anders", zegt Remko Westrik, business unit manager HP StorageWorks Nederland. "Misschien dat we straks op vijfenveertig of vijftig procent uitkomen."
Uitbreidingen zullen dan ook niet uitgesteld kunnen worden. Zolang de gegevens in het huidige opslagsysteem passen, zullen de vervangingen vooruit worden geschoven. "De uitgaven staan onder druk", aldus Westrik. "Dat betekent dat je beter zult moeten onderbouwen waarom je bepaalde dingen doet. Er liggen kansen, maar je moet kunnen aantonen dat die investeringen geld opleveren, het liefst op korte termijn."
Datagroei
De storage-omzetten gaan niet gelijk op met de capaciteitsgroei. "Halverwege vorig jaar voorspelde IDC nog een groei van 2,7 procent voor 2009. In december hebben ze dat moeten bijstellen tot min 3,9 procent." Frans Versteeg, systems architect bij IBM, sluit zich aan bij de verwachtingen van Westrik. Volgens hem komen we straks misschien op een datagroei van veertig procent uit en een omzetdaling van een paar procent. "Welke crisis zich ook voordoet, de datagroei blijft", zegt ook Theo van Teylingen, de Nederlandse directeur van NetApp.
Hoewel de datadichtheid van de harde schijven snel toeneemt, zijn het vooral een heleboel nieuwe technologische ontwikkelingen die het mogelijk moeten maken om al die extra gegevens onder te brengen voor hetzelfde geld.
Deduplicatie
Dat veel van die technologieën binnen de storage arrays zelf worden toegepast, maakt het voor eindklanten bovendien eenvoudig om daarmee aan de slag te gaan. Deduplicatie is van die ontwikkelingen wel de belangrijkste. "Daarmee kun je een factor tien tot vijftig keer zo veel opslaan", zegt Westrik. "Vooral door de back-up anders in te richten, is heel veel te besparen. Je kunt meer gegevens online houden omdat er in die extra data ook meer wordt gedeeld. Daarmee wordt je restore weer versneld, want in 99 procent van de gevallen staat de back-up nu op virtual tape."
Hoewel sommige leveranciers ook deduplicatie aanbieden op live data, is dat een stuk lastiger te realiseren. Dat vraagt namelijk behoorlijk wat verwerkingskracht van de systemen. De prestaties mogen immers niet lijden onder de deduplicatie. Dat maakt het moeilijk deze technologie op te schalen. Alternatief is de postprocessing-aanpak. Daarbij worden dubbele blokken op de achtergrond ingedikt. Nadeel van deze aanpak is weer dat hiervoor extra diskcapaciteit nodig is"
Draaiende data
NetApp maakt binnen zijn storage arrays handig gebruik van het verschil in prijs, capaciteit en betrouwbaarheid tussen sata- en sas-schijven. Door de high-volume sata-hardware van een extra parity-bit te voorzien (raid-dp in plaats van raid1), kunnen deze nu ook direct voor applicaties worden ingezet.
Over solid state disks (ssd's), helemaal aan de voorkant van de hiërarchie, zijn de storage-leveranciers terughoudender. "Die technologie komt nu op", zegt Versteeg. "Over tien, twintig jaar zal het onvoorstelbaar lijken dat we ooit data op schijfjes lieten ronddraaien. Voor de storage-systemen zelf is ssd transparant; de flash disks gedragen zich hetzelfde als traditionele schijven."
Hoewel ssd veel zuiniger is, is het voor de grootschalige inzet in storage arrays nog veel te vroeg. Versteeg: "Ze zijn tien- of twintigmaal zo duur. Bovendien zijn er een stuk of tien verschillende soorten." Omdat ook de capaciteit van de oude harde schijven snel toeneemt, heeft ssd nog een flinke inhaalslag te maken.
Tenslotte blijven ook de opbrengsten van deze razendsnelle schijven uiteindelijk beperkt. "Agressieve databaseapplicaties hebben enorm grote caches", vertelt Versteeg. "95 procent van de i/o wordt al afgevangen door de servers zelf, de rest door de adapter en de controller. Op termijn zullen we wel naar ssd gaan, maar de markt moet zich eerst stabiliseren. Op een laptop wil je tien uur achter elkaar geluidloos kunnen werken. Voor grote storage-systemen wil je zo veel mogelijk capaciteit voor de laagste prijs."
Lastige technologie
Beschouw je ssd op deze manier als vervanger van intern server-geheugen, dan is dat alleen maar een extra reden om deze technologie niet zomaar als extra trap in de storage-hiërarchie in te zetten. "Als je wilt, kun je wel vijf tot zeven trappen definiëren", aldus Rein de Jong, de Nederlandse channel manager bij HDS. "Maar vier is al heel veel. Als je de extra beheerlasten berekent, moet je die minimaal met vijftig procent per trap kunnen reduceren."
Spin-down is nog zo'n lastige technologie. Daarbij worden schijven stilgezet als de gegevens erop niet gebruikt worden. Op die manier kan het energieverbruik van de storage-arrays worden teruggebracht. De implementatie ervan is echter om twee redenen een probleem. Ten eerste worden de gegevens per bit over de schijven verdeeld. Parallellisatie over de diskcontrollers heen is immers een standaardaanpak om de prestaties van een disk array te verbeteren. Daarnaast nemen online gebruikers geen genoegen met een laadtijd van vijftien seconden. Dit is vooral voor moderne internetconcepten gebaseerd op het Long Tail-model een probleem. Amazon moet elke productpagina direct kunnen ophoesten, ook als die maar eens per week wordt opgevraagd.
Information lifecycle management
Tegelijkertijd zullen eindgebruikers veel meer aan gegevensbeheer op een hoger niveau moeten doen. Dat betekent dat informatie gelabeld moet worden. Afhankelijk van hun waarde en positie in de bedrijfsprocessen zullen gegevens onder verschillende opslagregimes vallen.
De classificatie voor nieuwe en oude data is echter een enorme klus. Bovendien zijn de tools daarvoor nog volop in ontwikkeling. Desondanks is Hans Timmerman, cto bij EMC Nederland, van mening dat eindgebruikers niet anders kunnen dan hier nu al mee aan de slag te gaan en ook de bestaande gegevens in dit traject mee moeten nemen. "Je zult ook de legacy data moeten labelen. Je kunt die niet nog tien jaar laten voor wat die is. Het hoeft allemaal niet morgen klaar te zijn, maar je moet er wel aan beginnen, want je collega doet het ook."
Timmerman spreekt in dit verband dan ook van ilm (information lifecycle management) als erp (enterprise resource planning) voor het datacenter. "Toen we hier vijf jaar geleden aan begonnen, was het meer data lifecycle management, was het allemaal nog wat onbeholpen. Maar de business vraagt om serviceniveaus. De klant wil op basis van de metadata kunnen beslissen waar en hoe de gegevens worden opgeslagen."
Volgens hem hoeft dat labelen ook niet met de hand te gebeuren. "Als een bepaald filmpje op YouTube populair wordt, wordt dat automatisch honderden keren gekopieerd op servers over de hele wereld. Daarvoor zul je speciale software moeten hebben. Die kijkt wat er nodig is om het vereiste serviceniveau te kunnen halen."
Een ander voorbeeld vinden we in de gezondheidszorg. Timmerman: "Ziekenhuizen zoeken elkaar op in shared service centers (ssc's). MRI-scans en andere medische gegevens moeten vijftig tot honderd jaar worden opgeslagen, maar het mag niets kosten. Om die gegevens te beheren heb je slimme software en metadata nodig."
Virtualisatiegarantie
NetApp heeft al die ontwikkelingen in hardware en software samengepakt in een speciaal programma: 50% Virtualization Guarantee. Daarbij garandeert de leverancier dat een klant die de adviezen van NetApp opvolgt voor zijn gevirtualiseerde omgeving de helft minder opslagcapaciteit nodig heeft dan voorheen. Onlangs werd dat programma uitgebreid van VMware naar XenServer (Citrix) en Hyper-V (Microsoft).
Op welke manier die reductie wordt bereikt, maakt eigenlijk niet uit en kan per klant verschillend zijn. NetApp maakt daarvoor onder andere gebruik van thin provisioning, deduplicatie, raid-dp en snapshots. "Op die manier tonen wij aan hetzelfde of meer te kunnen met dezelfde hardware", aldus Van Teylingen. Bovendien laat deze bundeling duidelijk de trend van hardware naar software zien. "Wij zijn nooit echt een diskhuis geweest. We hebben altijd gekeken naar intelligent databeheer."
Beheerkosten
Volgens Versteeg is er op dit gebied nog een heleboel te doen in de markt. "Binnen het it-budget groeit het aandeel van de opslag. Mensen op directieniveau vinden dat vreselijk om te zien. Die toename in de kosten wordt veroorzaakt door het beheer. Dat maakt tachtig tot vijfennegentig procent van de storage-kosten uit. De capaciteit van de hardware groeit vanzelf, maar dat is maar vijf tot twintig procent van de kosten. De kansen zitten dus in intelligente beheersoftware, maar bedrijven schaffen die niet halsoverkop aan."
Dan is het midden- en kleinbedrijf waarschijnlijk makkelijker te benaderen. "De helft van de mkb'ers koopt nog steeds servers met eigen opslag erin. Dat is zowel vanuit kosten- als vanuit beheerperspectief niet handig. Het virtualiseren van servers werkt alleen met externe storage. Daarom proberen wij onze systemen zo te positioneren dat die combinatie aantrekkelijk wordt. Welk platform je ook hebt, die virtualisatietrend zet enorm door. Als je dat op brede schaal invoert, komen automatisch vragen met betrekking tot de storage-infrastructuur naar boven. Iedereen die zijn servers virtualiseert, moet ook zijn opslag consolideren en virtualiseren. Daar zitten de kansen voor onze business partners."
Aantoonbaar goedkoper
Volgens Van Teylingen kun je alles kwijt waarbij de kosten van de klanten dalen. "Het accent ligt wel op de aantoonbaarheid daarvan. Je kunt je daarbij in eerste instantie richten op de huidige infrastructuur. Daarnaast willen klanten echt wel investeren om hun slagvaardigheid te vergroten. Daarbij gaat het om meetbare key performance indicators (kpi's) voor de eindgebruikers." Resellers kunnen hun klanten hierbij van dienst zijn door mee te denken over de financiering van die investeringen. Tenslotte noemt Van Teylingen nog de storage-on-demand concepten in al hun verschillende verschijningsvormen.
NetApp zegt echter geen plannen te hebben om in die richting zelf als aanbieder te gaan werken. "Wij zijn geen dienstverleners, wij leveren technologie. We kijken hier wel met partners naar." Terwijl veel leveranciers de verschuiving naar online dienstverlening aangrijpen om de eindgebruiker meer direct te benaderen, is daar bij NetApp echter geen sprake van. "Onze strategie is om als technologieleverancier te fungeren", aldus Van Teylingen. "Dat is onze rol in de keten. We proberen niet om zo veel mogelijk van die keten op te eten. Wij richten ons op het aanbieden van een visie op architectuur en structuur."
CO2-neutrale terabytes
Hoewel het nog vroeg is voor storage-as-a-service, is dat volgens De Jong een concept dat bij uitstek hier in Nederland goed zal gedijen. "Nederlanders zijn goed in het outsourcen van stukken. Er zijn nu al system integrators die de storage-omgeving van hun klanten in hun eigen datacenter beheren."
Een ander voorbeeld is de distributeur die op dit moment bezig is met opzetten van een groen datacenter, om daar CO2-neutrale terabytes aan te bieden. "De distributeur doet dat met nog twee andere investeerders. Op dit moment zijn de vergunningen aangevraagd. Eind van dit jaar moet alles operationeel zijn. Die diensten kunnen ook als white label voor de resellers worden aangeboden."
Bedrijfsprocessen
"Er wordt inderdaad steeds meer gestandaardiseerd", vervolgt Van Teylingen. "Maar er zit steeds meer waarde in de software die steeds intelligenter wordt. Dat betekent dat je ook op een hoger niveau de bedrijfsprocessen integreert. En daar heb je je partners bij nodig."
"Wij hebben altijd gezocht naar complementaire partners", vult channel manager Victor Schmitz aan. "Zowel verticaal als regionaal als in de integratie van toepassingen als VMware, Oracle en SAP. Die partners profiteren nog dagelijks van onze groei. Daarnaast maken de huidige marktontwikkelingen het mogelijk om met dezelfde technologie een andere boodschap te brengen. Vorig jaar ging het nog om investeringen en uitbreidingen. Nu is de vraag wat de klant met zijn huidige investeringen en technologie kan doen."
"Dat maken we meetbaar", aldus Van Teylingen. "Het kan zijn dat we oude, afgeschreven systemen vervangen, soms zelfs door apparatuur van andere leveranciers, of dat we zaken anders inrichten. Daar komt een financieel voorstel uit. Wordt dat helemaal uitgevoerd, dan garanderen wij dat de klant 50 procent minder opslagcapaciteit nodig heeft. De combinatie met programmatuur en tools is een kans voor de partners."
Effectieve terabytes
De aanbieding van NetApp sluit natuurlijk heel slim aan bij definiëren van systemen in termen van harde opslagcapaciteit. Hetzelfde geldt voor kosten die nog steeds berekend worden in euro per terabyte. Met al die (ingebakken) softwarefunctionaliteit kun je tegenwoordig misschien beter spreken over effectieve of virtuele (applicatieafhankelijke) terabytes. "Er zal de komende tijd wel wat spanning ontstaan in de rekenmodellen", verwacht Van Teylingen. "Maar zodra je een klant meetbare waarden in voor hem relevante termen kunt geven, zal dat hem veel meer aanspreken."