Door de jaren heen zijn storage systemen kleiner en vooral slimmer geworden. Tegenwoordig zijn deze technologieën gebaseerd op software, niet op hardware. De vrijheid dat software-defined storage geeft is hetzelfde, omdat de evolutie van storage een vergelijkbaar traject heeft afgelegd als iets dat we allemaal al jaren met ons meedragen: de mobiele telefoon.
Herinner je je de originele mobiele telefoon? Die grote grijze doos met antenne? Ik vergelijk het met de gigantische servers die al jaren in de kelders van ieder bedrijf staan te blazen.
De natuurlijke uitdaging voor gsm-bouwers was om ze kleiner te maken. Nokia was leading de pack met een gsm zo groot als een Mars, die je makkelijk overal mee naar toe kon nemen. Vergelijkbare ontwikkeling is de usb-stick waarop je gigabytes aan data kan opslaan. Net als gsm’s, die waren beperkt tot bellen en sms-en, zijn usb-sticks ook fysiek beperkt: sla data op, open de data, neem de data mee.
Hallo, smartphones, Android en keuze
We kijken naar Blackberry, die veroorzaakte een revolutie in de mobile phone industrie door de apparaten niet alleen klein te maken, maar vooral slimmer. De hard- en software die RIM had ontwikkeld stelde ons in staat om email te checken en over het internet te browsen. Echter de originele grote spelers (Blackberry en Apple) in de smartphone-industrie dicteerden echter wel dat klanten hun hardware kochten om zo gebruik van hun software te mogen maken. Ofschoon ze een paar verschillende modellen aanboden, hadden de klanten uiteindelijk weinig keuze in design, specs en prijzen.
Google’s Android OS heeft klanten in staat gesteld om onder het vendor lock-in juk uit te komen. Consumenten konden daadwerkelijk kiezen uit een variëteit aan telefoons van verschillende fabrikanten. Ze konden kiezen tussen prijs, scherm grootte, kwaliteit van de camera et cetera en betalen alleen voor de technologie die ze nodig hebben.
Open, software-defined storage stelt je ook in staat prioriteiten te stellen om alleen te kopen wat je nodig hebt. Software is niet alleen efficiënter, het maakt storage ook slimmer, meer flexibel en meer Agile. Het geeft je de vrijheid de architectuur zo aan te passen dat je je datacenters kunt vullen met de hardware die je zelf wilt, wat vaak lijdt tot significante kosten besparingen.
Wanneer ondernemingen vast zitten in een traditioneel storage area network, kunnen ze moeite hebben met het doorgroeien naar next-generation technologieën omdat hun data vast zit op oude servers en systemen. Het verhuizen van data en applicaties naar nieuwe servers is niet alleen tijdrovend, het is ook nog eens verschrikkelijk duur. Soms wel zevenduizend tot tienduizend euro voor het verhuizen van een terrabyte.
Als je niet verplicht wordt je budget te spenderen aan het migreren van petabytes aan data, kan je meer geld uitgeven aan groei en uitbreiding.
Kleiner en meer open
Storage moet vooral kleiner en meer open zijn, net als je smartphone. Open, software-defined storage zorgt voor makkelijkere migraties zodat je jouw data bronnen op meerdere manieren in kan zetten. Je opslag hoeft niet alleen via servers en desktops te benaderen te zijn, het kan connecteren met ieder device, overal.
Data analyseer je direct in je storage software, zonder dat je data tussen applicaties hoeft te transferen.
Dit vermogen tot snel aanpassen en reactie snelheid is wat moderne ondernemingen eisen, niet alleen om te besparen op storage uitgaven maar ook om geld te verdienen met storage.
Vrijheid. Mobility. Keuze. Je hebt het met je smartphone. En dit is eigenlijk de inspiratie achter software gebaseerde storage. Het is gebouwd op de innovaties van communities met gepassioneerde ontwikkelaars en thought leaders.
Jasper,
Mooi artikel, dank!
Zou je willen aangeven welke beperkingen SDS op dit moment kent?
Is SDS de juiste oplossing voor verschillende zaken zoals VDI en oplossingen met intensieve gebruik van IOPs? Of heb je het alleen over opslag (storage)en geen computing(SAN)?
Reza, dit is een verhalend opinie, leesvoer voor een ieder, daarin horen geen IOPS en VDI thuis.
Leuk stuk Jasper!
Ik deel je mening dat SDS steeds belangrijker en aantrekkelijker wordt. Kijk maar naar bijvoorbeeld Nexenta,Nutanix,Tintri en Scale IO.
CPU’s worden namelijk ieder jaar sneller. En door gebruik te maken van commodity servers heb je hier veel baat bij.
De gefaseerde schaling heeft ook financieel gezien veel voordelen. Mogelijke migratie problematiek omdat je storage oplossing aan het einde van zijn technische levensduur is of verder niet meer schaalbaar, kom je dan niet meer tegen. Aangezien je vaak eindeloos door kan schalen en de oude nodes kan vervangen voor nieuwe.
In de toekomst zal storage steeds meer commodity worden en zal software de dienst uit gaan maken.
Reza,
SDS kan zeker ook in VDI omgevingen ingezet worden. Niet iedere smaak van SDS is even geschikt. Maar de oplossingen die meerdere type disken ( SSD,Flash, SAS) ondersteunen kunnen dit perfect aan. Disk IOPS gaan hier mits goed vooraf in kaart gebracht geen problemen opleveren.
Misschien dat ik hier in de toekomst nog wel eens een artikeltje ga wagen aangezien Jasper mij met deze intro net voor was. Dus ik moet mijn stuk wat op de plank lag even aan gaan passen.
Ruud heeft een stukje op de plank liggen, ik haal gewoon een eerdere reactie van de plank af:
Als we redeneren vanuit de servers met bijbehorende opslag dan zijn er, uiteindelijk afhankelijk van de delta grote hoeveelheden data die over lijnen verplaatst en opgeslagen moeten worden. Met technieken als in-file delta backup, compressie en nog wat grappen en grollen kan volume sterk beperkt worden.
In de opslag-evolutie worden de algoritmen dus inderdaad belangrijker dan de schijven.
Vraagteken wat ik plaats is vanuit welk perspectief je kijkt omdat we nog weleens een probleem bij een oplossing zoeken. Redeneren we vanuit de techniek of vanuit de data die vaak langer bewaard moet blijven dan economische- en technische levensduur van techniek. De datavolumes nemen trouwens niet alleen toe door verdergaande digitalisering maar ook door wettelijke vereisten.
“Dit vermogen tot snel aanpassen en reactie snelheid is wat moderne ondernemingen eisen, niet alleen om te besparen op storage uitgaven maar ook om geld te verdienen met storage.”
Daarmee lijk je me richting belofte van Big Data te gaan, opslag kost namelijk geld of je moet een goede doorbelasting hebben. Dat lijkt me geen slecht plan om te zorgen dat de kraan aan de kant van de gebruikers wat minder hard stroomt. Want uiteindelijk zijn grenzen van het datacenter al lang niet meer zo duidelijk maar vliegen olifanten nog steeds niet.
@Henri: Ik snap je reactie niet! Ik heb maar een RFI ingediend en verder geen verwachtingen uitgesproken omtrent het benoemen van die onderwerpen in het betreffende artikel. Deze informatie kan door Jasper in zijn reactie of door andere mensen in hun reactie (zoals Ruud)verschaffen worden.
@Ruud: Dank voor je toelichting. Ik heb alleen maar leuke dingen in dit artikel over SDS gelezen. Daarom ben ik benieuwd naar de huidige beperkingen en verdere ontwikkelingen van deze technologie.
Verder wil ik graag weten waar de break even point van deze oplossing is tov traditionele san-storage oplossing van nu. Ik heb in mijn reactie een onderscheiding gemaakt tussen opslag (storage) en computing (san)Misschien wat onderwerpen voor je artikel? 🙂
Ewout:
Ik geloof niet dat storage in de toekomst kostbaar zal blijven. Er zijn veel bedrijven zoals Sony die flink bezig zijn met het ontwikkelingen van slimme schijven met hoge capaciteit.
Ik denk dat de huidige problemen rondom big data in de toekomst niet meer bestaan. Dat komt doordat
A) Een deel van dataclassificatie zal eerder tijdens het genereren van data gebeuren. Bijvoorbeeld, het soort van data krijgt een lebel.
B) Sensoren zullen slimmer worden. Hierdoor zal een deel van dataclassificatie bij ontvangst van data plaats vinden (kijk daar heb je die lebels voor nodig),
C) BI-laag en Datamining zullen verder ontwikkeld worden,
D) Capaciteit en opslagtechnologie met zijn computingslaag zullen verder slimmer worden,
@Reza
Onzin, zodra de prijs daalt neemt het gebruik toe zoals we al zien bij de snel groeiende behoefte aan opslag. Alles online (en snel beschikbaar) is een door marketing gedreven ontwikkeling die uiteindelijk niet houdbaar is. Betreffende je data classificatie zou je daar al een flinke bespraring kunnen halen, minder data is meer inzicht.
Management by Exception zal de diarree aan data vanuit sensoren behoorlijk decimeren, je hoeft goede status niet 100.000 keer op te slaan als je uiteindelijk alleen geinteresseerd bent in de afwijkingen.
Als je niet verzuipt in de irrelevant data dan wordt zowel het ontdekken van patronen als het leggen van relaties een stuk eenvoudiger. Als het niet stuk is hoef je het niet te repareren, als het profijtelijk is niet te verbeteren. BI en datamining zijn nog te vaak een abstracte wetenschap.
Had al wat gezegd over algoritmen die kunnen bepalen waar data het beste opgeslagen kan worden, online of near-line is gewoon storage tiering wat 20 jaar geleden al uitgevonden is en uiteindelijk een logistiek proces. Centralisatie of decentralisatie is afhankelijk van je aanvoerlijnen, de front-end IOPS kunnen door caching sneller zijn dan je back-end IOPS.
Je opmerking over SAN is wel terecht, het is een conceptueel principe dat volgens mij een combinatie van logische en fysieke componenten is. Prestatie en toepassing wordt door de integratie bepaald waarbij SDS vooral voor een abstractie zorgt.
Misschien dat Ruud het allemaal uit gaat leggen in zijn artikel, Jasper verhaalt nu teveel vanuit zijn rol als verkoper.
@ Reza,
In het geval van SDS praat je over beide.
Iedere node ( lees server ) heeft CPU kracht, memory, network IO, disk IO.
Afhankelijk van het product kun je hier keuzes in maken. Heb je meer rekenkracht nodig dan schakel je het aantal CPU’s op en heb je meer disk IO’s nodig dan voeg je servers of JBOD’s toe.
Natuurlijk moet je netwerkbackbone (SAN) niet vergeten worden. Een aparte storage VLAN is dan geen overbodige luxe.
@ Reza,
In het geval van SDS praat je over beide.
Iedere node ( lees server ) heeft CPU kracht, memory, network IO, disk IO.
Afhankelijk van het product kun je hier keuzes in maken. Heb je meer rekenkracht nodig dan schakel je het aantal CPU’s op en heb je meer disk IO’s nodig dan voeg je servers of JBOD’s toe. En heb je meer throughput nodig dan voeg je NICS (SAN) toe.
Natuurlijk moet de netwerkbackbone (SAN) niet vergeten worden. Een apart storage VLAN is daarom geen overbodige luxe. Het nadeel van SDS is dat er veel nodes ingezet worden. En dat genereert nogal wat onderling verkeer.
@Reza, ik bedoel te zeggen dat dit een hoesanna verhaal is, Ewout noemt het verkoper rol. Het is om te “inspireren”, niet om afwegingen te maken of nadelen te benoemen.