Het leven van een storage-admin is niet eenvoudig. Met veel branden om te blussen en boze beesten om te temmen is er elke dag wel wat aan de hand: opslagcapaciteit toewijzen aan gebruikers en applicaties, performance-problemen aanpakken die de gebruikerservaring beïnvloeden, tools op elkaar afstemmen die gebruikt worden voor dezelfde taken en dan hebben we het nog niet gehad over hardwarestoringen, het tekort aan capaciteit op opslagapparaten en replicatie- en backup-storingen.
Doorgaans nemen handmatige inspanningen voor opslagbeheer de meeste tijd in beslag van een beheerder. Dit zorgt er ook voor dat zij zich niet kunnen focussen op het vinden van oplossingen die waarde toevoegen aan de kernactiviteiten van de organisatie. Om het aantal repetitieve en handmatige taken te verminderen is het noodzakelijk dat opslagbeheerteams verder automatisering meenemen in hun opslagbeheerstrategie.
Ik heb het hier dan niet over een complete it-transformatie met complexe automatiseringsoplossingen voor bedrijfsprocessen en orkestratie-runbooks. Al door het instellen van automatisering voor sommige van je dagelijkse opslagbeheertaken bespaar je veel tijd die kan worden gebruikt om andere zaken aan te pakken. In deze blog ga ik in op welke storagebeheertaken eenvoudig geautomatiseerd kunnen worden door gebruik te maken van een software-defined storage-aanpak.
Storage pools
Het beheren van opslagsilo’s met ongebruikte capaciteit op sommige apparaten, terwijl andere opslagsilo’s snel vol raken, is een inefficiënte manier om capaciteit te beheren. Met behulp van software-defined storage kun je de gegevensservices automatisch virtualiseren vanuit de onderliggende storage-hardware. Zodra de gegevensservices zijn geabstraheerd, kan de hardwarecapaciteit over heterogene opslagsystemen logisch worden gegroepeerd, waarna je vervolgens storage pools kunt vormen. Deze pools worden beheerd vanuit één tool, in plaats van verschillende beheertools van verschillende leveranciers. Dit maakt opslagbeheer veel efficiënter omdat de capaciteit van alle beschikbare storage-apparaten volledig kan worden benut, nog voordat er moet worden geïnvesteerd in capaciteitsuitbreiding en nieuwe hardware. De voordelen?
- De capaciteit van elk nieuw toegevoegd of geüpgraded opslagapparaat wordt automatisch toegevoegd aan de bestaande opslagcapaciteit.
- Ongebruikte capaciteit van alle apparaten wordt automatisch teruggevorderd en opnieuw beschikbaar gesteld.
- Het capaciteitsgebruik wordt automatisch verdeeld over de opslagsystemen, zodat geen enkel apparaat zonder capaciteit komt te zitten.
Geautomatiseerde data placement
Bepalen welke gegevens op welke opslag moeten worden opgeslagen, is van cruciaal belang om prestatie- en kostendoelstellingen te waarborgen. Je moet namelijk niet alle koude (weinig gebruikte) gegevens opslaan op de snelste en duurste storage. Die moet namelijk worden gereserveerd voor de warme (veelgebruikte) gegevens. Het is onmogelijk om de ‘temperatuur’ van de gegevenstoegang handmatig bij te houden en de beslissing over de plaatsing van gegevens altijd zelf te kunnen nemen.
Gecompliceerde toegangspatronen zorgen ervoor dat de weg naar een efficiënt opslagsysteem niet eenvoudig is. Automatisering is daarom absoluut noodzakelijk om de kosten te beheren. Voor dit doel kan gebruik worden gemaakt van geautomatiseerde data placement-technologie dat ondersteund wordt door machine learning. Voorbeelden daarvan zijn:
- Auto-tiering in een block storage omgeving die data verplaatst naar verschillende opslagniveaus. Dit zorgt ervoor dat de juiste gegevens op de juiste opslag staan op basis van hoe warm of koud de datatoegang is.
- In het geval van file storage kunnen data placement beslissingen verder geautomatiseerd en beheerd worden op basis van vooraf gedefinieerde bedrijfsdoelstellingen, om te voldoen aan de vereisten op het gebied van prestaties, beschikbaarheid, kosten, gegevensbescherming en regelnaleving.
- Tiering automation kan worden uitgebreid om koudere, minder gebruikte bestanden, van NAS-systemen en bestandsservers naar cloud-/objectopslag te verplaatsen, waardoor opslagruimte op locatie wordt vrijgemaakt. Dit wordt file tiering genoemd.
Of je nou gebruikmaakt van block-level tiering of file-level tiering, het is belangrijk om data placement te benaderen als een dynamisch, doorlopend proces. Want data placement is immers geen eenmalige activiteit. Door inzicht te hebben in toegangstemperaturen op blockniveau of beleidsregels op bestandsniveau, kunnen veranderende patronen worden ontdekt. Dit biedt de mogelijkheid om gegevens te verplaatsen tussen opslagmedia.
Assimilatie van metadata
Metadata is de kern van file storage management. Op basis van de schat aan informatie die is verkregen uit metadata, kunnen bestanden worden doorzocht, geopend, verplaatst, gekopieerd, beschermd, enzovoort. Een software-defined file storage management-systeem assimileert metadata van verschillende nas-apparaten en bestandsservers en creëert een global file system van waaruit bestanden die beschikbaar zijn vanaf verschillende koppelpunten toegankelijk zijn vanuit een enkele global namespace. Zoals we hierboven hebben gezien, kunnen beslissingen over het plaatsen van bestanden worden geautomatiseerd op basis van inzichten die zijn verkregen uit metadata. Naast het bundelen van capaciteit over verschillende systemen, kunnen ongelijksoortige namespaces ook worden samengevoegd om een universele namespace te vormen, waardoor gegevensbeheer meer gestroomlijnd en eenvoudiger wordt en tegelijkertijd zichtbaarheid wordt geboden over heterogene nas-systemen.
Alles wat geautomatiseerd kan worden, moet worden geautomatiseerd. Dit is vooral van belang voor it-personeel dat een groot deel van zijn tijd nodig heeft voor andere projecten. Automatisering kan en moet een belangrijk onderdeel zijn van de algemene strategie voor opslagbeheer. Door gebruik te maken van de uitgebreide automatiseringsmogelijkheden van software-defined opslag, kun je de tijd die je besteedt aan repetitieve handmatige taken verminderen, workflows stroomlijnen en versnellen, de productiviteit verhogen en serviceniveaus verbeteren.
Een software-defined storage-aanpak is mooi want software maakt de opslag ‘intelligenter’ doordat vraag en aanbod beter op elkaar afgestemd kunnen worden middels het meten is weten. Zo levert het verhuizen van data die niet meer geraadpleegd wordt naar een goedkopere opslag technologie dus een besparing op terwijl aanvullende technieken zoals Write Once, Read Many (WORM) die data ook nog eens beter kunnen beschermen. Overwegend dat veel data welke eenmaal aangemaakt is niet meer gewijzigd mag worden maar tot 7 jaar of langer bewaard worden een interessante optie nu we steeds vaker afscheid van de Systems of Record nemen. Nu moet ik wel zeggen dat wat betreft het assimileren van metadata vanuit verschillende NAS-apparaten en bestandsservers niet alleen de rechtenstructuur meegenomen moet worden maar ook andere allerlei attibuten, persoonlijk vind ik de checksum wel interessant om zeker te weten dat de data op bit niveau gelijk is gebleven. En het splitsen van data en metadata maakt dan ook het beheer eenvoudiger omdat de keus voor de uiteindelijke datadrager zelf eenvoudiger wordt want wat betreft de I/O workflows biedt een software-defined storage-aanpak de mogelijkheid om het ‘once size fits all’ principe los te laten. Waarom niet hoger in de stack al een besluit te nemen over de landing op een datadrager als je vanuit het Information Lifecycle Management al weet dat bepaalde data als een digitale bewijslast 7 jaar of langer ongewijzigd bewaard moet worden?
Mooi om te zien dat de Near Online Storage (Nearline storage IBM) na 45 jaar zo ver geëvolueerd is. Toen nog meestal On-premise, nu meestal in de cloud met ruimere en flexibele mogelijkheden voor dimensionering. Dit betekent overigens niet dat er vanwege de automatisering niet expliciet gearchiveerd moet worden (en dat opschonen wenselijk of verplicht kan zijn).