De markt voor opslagsystemen zal dit jaar nog meer dan vorig jaar in beweging zijn. Technologische en economische trends vechten daarbij om de hoofdrol. ‘Groen’ is in, maar niet leidend.
Was 2007 al een bewogen jaar voor de storage-markt, in 2008 zal de branche zo mogelijk nog meer in beweging zijn. De meeste fabrikanten gaan er vanuit dat het begrip ‘eco’ de ontwikkelingen dit jaar nog meer zal beheersen dan tot nu toe al het geval was. Daarom proberen zij allemaal een groen imago te krijgen. Soms kijken ze daarbij vooral naar het elektriciteitsverbruik en de CO2-uitstoot van hun apparatuur. In andere gevallen proberen de leveranciers ook het goede voorbeeld te geven door hun eigen datacenters aan te pakken.
Opslagleverancier Hitachi Data Systems (HDS) ziet vooral een milieuprobleem in de almaar toenemende opslagcapaciteit die bedrijven nodig hebben. Technieken als thin provisioning en deduplicatie kunnen een interessante bijdrage leveren om deze groei in te dammen. NetApp probeert tegengas te geven aan de perceptie dat het terugdringen van het elektriciteitsverbruik kostbaar zou zijn.
Goed meten
Ook hoeven dit soort maatregelen niet complex te zijn. Heel belangrijk is om aan het begin van een besparingstraject eerst goed te meten. Daarmee kan bijvoorbeeld voorkomen worden dat sprake is van overkoeling. In de praktijk wordt de koeling in een datacenter – storage-systemen niet uitgezonderd – vaak afgestemd op uitzonderingssituaties. Het is maar de vraag of dat noodzakelijk is. Een goede inrichting in bijvoorbeeld koude en warme paden kan tot een meer efficiënte manier van koelen leiden, met als gevolg dat het elektriciteitsverbruik terugloopt.
Leveranciers wijzen ook op de mogelijkheden van natuurlijke luchtstromen en de kansen die het gebruik van kinetische UPS’s biedt. Door geen traditionele batterijen of accu’s te gebruiken, maar bijvoorbeeld een vliegwiel, loopt de efficiëntiegraad op tot bijna 98 procent. Dat halveert de verliezen ten opzichte van reguliere batterijen, stelt NetApp vast.
Virtueel consolideren
Van HDS tot IBM en van NetApp tot Sun zien de aanbieders van opslagsystemen een grote toekomst weggelegd voor consolideren en virtualiseren. Door data steeds meer te concentreren op grote, gevirtualiseerde opslagsystemen, zal het stroomverbruik flink afnemen. Dat verlaagt sowieso al de kosten. De vraag is echter wat de beste aanpak is voor die virtualisatie. Het simpelweg virtualiseren van de bestaande opslagsystemen heeft in de regel weinig zin.
HDS haalt graag de Australische hoogleraar Kevin McIsaac aan. Die stelt dat virtualisatie als laag over de bestaande arrays heen alleen maar extra complexiteit oplevert en de prestaties zeker niet ten goede komt. Daarom bepleit die expert een aanpak met zogeheten ‘control unit virtualization’ die niet alleen de virtualisatie op zich neemt. Deze aanpak bestuurt ook aspecten als het op maat beschikbaar stellen van capaciteit (thin provisioning) en het verplaatsen van data naar de meest geschikte opslagsystemen op basis van kosten of toegangstijden.
Groei indammen
De door tal van bedrijven gesignaleerde explosie aan data is eveneens een belangrijke trend voor dit jaar. Hoewel lang niet iedereen overtuigd is van het bestaan van deze ‘explosie’ proberen de aanbieders methoden en technieken aan te dragen om de sterke groei in te dammen. Datamanagement is daarbij een belangrijk hulpmiddel. Daaronder scharen de leveranciers vaak zeer verschillende werkmethoden.
Het begrip ‘data mobility’ wordt in dit kader veelvuldig genoemd. Gegevens moeten verplaatsbaar zijn zonder dat de applicaties die met deze data werken hier hinder van ondervinden. Het lastige is echter dat dit in de regel veel processorcapaciteit kost van de betrokken servers. Daarom bepleiten sommige aanbieders een manier van werken waarbij de dataverplaatsing wordt overgelaten aan het opslagsysteem. Die apparatuur moet dan wel liefst een snelle fibre channel-verbinding gebruiken.
Deduplicatie
Andere aanbieders praten in het kader van datamanagement ook van deduplicatie. Veel informatie wordt twee, drie of nog meer keren opgeslagen, ondanks het feit dat het om kopieën van dezelfde blocks of bestanden gaat. Dat levert een forse verspilling van capaciteit op. Het toepassen van deduplicatie-technieken kan dat terugdringen. De claims die hierbij gemaakt worden, zijn overigens vaak erg indrukwekkend maar niet altijd even realistisch. Het effect van deduplicatie-operaties kan dan ook sterk variëren.
Een andere trend die nog relatief nieuw is, heet service oriented storage. Het is een term die vooral door HDS wordt gebruikt. In feite doelt het bedrijf hier op het aanbieden van storage als een dienst. Denk dan aan services als global caching, en diensten op het gebied van replicatie of voor thin provisioning. Service oriented storage vormt daarmee een aanvulling op service oriented architecture (SOA), wat speelt op het niveau van applicaties.
Tenslotte security. Met name data in ruste krijgt veel aandacht, waarbij de leveranciers wijzen op het belang van een weldoordachte aanpak als het gaat om het beheren van de sleutels. Sommige aanbieders – Sun bijvoorbeeld – gaan zelfs zover dat zij tape cartridges voorzien van RFID-chips zodat deze altijd gevolgd kunnen worden, ook als de data op die tapes reeds met behulp van encryptie is beveiligd.
Top tien storage-trends
Tien ontwikkelingen beheersen de storage-markt dit jaar, meent Hu Yoshida, chief technology officer van Hitachi Data Systems:
-
Elektriciteitsverbruik en uitstoot van CO2.
-
Onderzekerheid over economie.
-
Toenemend gebruik van archivering.
-
Bestaande architecturen kunnen groei niet meer bijbenen.
-
Data mobility wordt steeds belangrijker.
-
Nieuwe vormen van virtualisatie slaan aan.
-
Service Oriented Storage wordt populair.
-
Onderscheid tussen fixed content, file en block storage vervaagd.
-
Thin provisioning begint aan opmars.
-
Deduplicatie wint aan belang.