Hoe je het ook wendt of keert, de rol en inzet van flash-technologie zal in 2014 alleen maar toenemen. Flash is nu eenmaal een hot topic en dat was zeker te merken tijdens de expertpanel discussie die ik leidde op de Info Security en Storage Expo. Ook het verslag van de sessie leverde een lange maar zeer interessante discussie op.
Op deze site zie ik geregeld informatie over flash-technologie langs komen. De ene keer is het de heilige graal op het gebied van storage, de andere keer wordt het als duur en ongeschikt voor write intensieve omgevingen neergezet. Maar laten we reëel zijn: flash-opslag is mijn ogen een goede aanvulling op de harddisk.
Capaciteit versus Performance
In de enterprise storage omgevingen draait het behalve om opslagcapaciteit steeds meer om performance. En juist dat laatste wordt vaak vergeten. Het is verbazingwekkend in hoeveel aanbestedingen of aanvragen alleen nog maar over opslagcapaciteit gepraat wordt. Opslagcapaciteit is zeer betaalbaar geworden, maar performance blijft nog altijd kostbaar. En juist op dat gebied is flash-technologie een welkome versterking. Met de gemiddelde flash-disk kan je – afhankelijk van het type – tussen de drieduizend en vijfduizend iops behalen. Dus op het gebied van performance is dit echt een baanbrekende ontwikkeling. De snelste hard disk (hd) die we tot voor kort kenden (SAS/FC 15k) haalde er maar honderdtachtig.
Niet alles kan geflasht worden
De performance van een flash-disk is dus vele malen hoger dan die van de reguliere hd. Flash-technologie is echter het meest geschikt voor read intensieve omgevingen. Denk hierbij aan of performance intensieve databases (Oracle, Sap, crm-pakketten, et cetera). Ook bij omgevingen waar lage latency nodig is (VDI ) biedtflash een uitkomst. Omgevingen waar veel data weggeschreven wordt (write-intensief), zijn wat minder geschikt om volledig op flash-technologie te baseren.
Meten is weten
Ook hier geldt: Meten is weten. Het is van belang om vooraf goed de performance karakteristieken van je data inzichtelijk te maken. Zaken zoals de read/write verhouding en huidige i/o-load zijn van cruciaal belang. Welke delen van je omgeving hebben performance nodig en voor welke delen heb je alleen maar opslagcapaciteit nodig? Dataclassificatie op basis van performance is hier enorm belangrijk. Zoals eerder gezegd, wordt er op dit gebied nog te vaak naar opslagcapaciteit in plaats van naar performance gekeken. En dat heeft natuurlijk gevolgen. Een omgeving met genoeg opslagcapaciteit maar onvoldoende snelheid kost een organisatie alleen maar geld. En de daadwerkelijke besparing door langzamere disks gaat al snel verloren. Ook bij een transitie naar een cloud-omgeving (IaaS/PaaS) wordt de performance vaak over het hoofd gezien. Een cloud-platform dat niet flexibel en schaalbaar is op dit gebied, schiet in mijn ogen tekort.
Wat is er beschikbaar op de markt
Je ziet op het gebied van enterprise-storage oplossingen een aantal varianten op de markt. Ik zal de belangrijksten even kort toelichten:
All Flash arrays. Dit soort oplossingen bestaat, zoals de naam natuurlijk al doet vermoeden, alleen uit disks op basis van flash-technologie. Dit soort systemen is uitermate geschikt voor vdi- en db-omgevingen waar over het algemeen veel leesacties uitgevoerd worden. Er wordt vaak geroepen dat flash kostbaar is qua opslagcapaciteit. Nu kan ik dit alleen maar beamen, maar wel met de kanttekening dat hier een behoorlijke prijsnivellering gaande is. Ook gaan de hardware-leveranciers steeds slimmer en optimaler met flash-opslag om. Compressie- en deduplicatie-technologie zorgen er voor dat data in de meest optimale vorm wordt opgeslagen.
Flash IO accelaratie kaarten. Deze kaarten worden ook steeds vaker ingezet. Vroeger gebruikte men deze kaarten voornamelijk als het storagesysteem niet aan de performance-eisen voldeed en niet verder schaalbaar was. Nu worden ze ook ingezet in vdi- en db-omgevingen. De kaarten zijn er in twee varianten. De eerste variant slaat alles lokaal op en bij een eventueel defect gaat alle data verloren. De tweede variant slaat alles lokaal op, maar zet de data ook door naar een centraal opslagsysteem. Op die manier heb je eigenlijk een ‘best of both worlds’ scenario. Een groot nadeel van beide varianten is dat er maar één server tegelijk van de kaart gebruik kan maken.
Hybrid Storage systemen. De hybride systemen maken gebruik van de hd-technologie zoals we die al jaar en dag kennen en zetten daarnaast flash-technologie op een slimme manier in, door bijvoorbeeld flash-disks als cache te gebruiken of in te zetten in voor automatic storage tiering. Automatic storage tiering analyseert de data op basis van performance behoeften, plaatst de data die veel performance nodig heeft op snelle disks en de data die minder veeleisend is op langzamere disks.
Levensduur
Ik hoor mensen wel eens zeggen dat ssd/flash minder lang mee gaat, maar niets is minder waar. Het is wel belangrijk om appels met appels te vergelijken door Flash technologie op de juiste manier in te zetten. Het klopt dat write intensieve acties de levensduur van flash beperken. Echter in een read intensieve omgeving zoals bijvoorbeeld bij vdi, big data en databases gaat de flashtechnologie juist veel langer mee (zie kader).
De levensduur van een ssd is gebaseerd op een max aantal PE cycles (program-erase cycle). Een korte uitleg:
Reads = Geen PE Cycle
Writing = PE Cycle
Deleting = PE Cycle
Er zijn veel verschillende soorten flash op de markt. Dit maakt het er niet overzichtelijker op, waardoor kan het gebeuren dat mensen appels met peren vergelijken. Om te zorgen dat appels met appels vergeleken worden een meer uitleg. E-MLC/SLC zie je met name terug in enterprise oplossingen en On chip flash en MLC worden met name in consumententoepassingen gebruikt.
Praktijkvoorbeelden max PE Cycles (PE Cycle = solid-state-storage program-erase cycle )
On chip flash = 100
MLC = 1500 tot 10.000 ( zeer veel differentiatie/verschilt per leverancier/type )
E-MLC = 30.000
SLC = 100.000
De getallen zijn op basis van PE Cycles per block, dat laatste is van groot belang. Dit zorgt vaak een vertekend beeld.
Meantime between failure (MTBF). Wat is de gemiddelde tijd voordat een flashdisk omvalt? Ook dit verschilt per type hd en ssd.
MTBF
hd = 500.000 / 750.000
ssd = 1.500.000 tot 2.000.000
Conclusie
Flash zal steeds vaker ingezet gaan worden en heeft de laatste jaren ook duidelijk intrede gedaan op de consumentenmarkt. Denk hierbij bijvoorbeeld aan Apple met zijn Fusion disk, of de ssd-disks die door veel gamers ingezet worden voor een zo snel mogelijk systeem. Voor welke variant moet je nu gaan? Je kan pas een goede en degelijke keuze maken als je je behoeften goed in kaart hebt gebracht. Moet je het overal toepassen? Dat is natuurlijk afhankelijk van je omgeving: zet het in waar je de meeste winst kan behalen.
Ha Ruud,
Goed artikel, wellicht een beetje voorspelbaar.
Je geeft wel cijfers op van de verschillende soorten Flash technieken, maar dit zegt nog niets op de lifespan van het product. Hoeveel data kan ik nu wegschrijven per technologie over een periode van zeg 3 jaar?
De meeste flash fabrikanten geven 2-3 jaar garantie, ik verwacht dat in write intensieve omgevingen, database omgevingen de levensduur aanmerkelijk korter zal zijn dan het gebruik bij VDI. Zou interessant zijn om dit een te belichten.
Verder mis ik de link met “tiering” software. Ik heb nogal vaak discussies over het gebruik van tiering software, waarbij je kunt kiezen voor een storage vendor (HP, EMC, etc) of gebruik gaat maken van bijvoorbeeld de storage software van VMware. Bij een database zou ik mij voor kunnen stellen dat je dedicated storage gebruikt, in een array zou je juist die data die snel beschikbaar moet zijn vooraan staat op Flash en alles wat minder snel moet of oud is kan ook op langzame media staan.
Willem,
Dank voor je reactie.
MTBF en PE cycles vormen de lifespan van een flash device. De karakteristieken van de data (R/W) vullen hier een zeer grote rol in. En dit verschilt per type omgeving/applicatie. Het is daarom niet verstandig om een getal te roepen want dan zou ik mij schuldig maken aan marketing prietpraat.
In enterprise storage omgevingen werk je 9 van de 10x met RAID en vaak ook nog eens met hotspares. Dus valt er een ssd om dan merk je daar niet veel van.
In het artikel staat wel degelijk onder het kopje hybride systemen een link naar storage tiering. Misschien ietwat onderbelicht maar een opiniestuk moet ook niet te lang worden. En ik heb hier in het verleden al veel over geroepen.
Mijn persoonlijke ervaring is dat storage tiering software die meegeleverd met de oplossing kan worden net iets effectiever en beter werkt. Maar ik laat mij graag verassen / overtuigen met jouw ervaringen.
@ Willem,
Bij DB’s zie je ook zo nu en dan Flash IO acceleratie kaarten gebruikt worden.
Het nadeel bij de standaardversie van deze kaarten is dat je bij een defect al je data kwijt bent. En dat is natuurlijk ook niet iets wat je bij een bedrijfskritische DB wilt.
@Ruud
Misschien dwalen we af maar ik vind reactie van Henri wel een hele goede, als ik het goed lees is maatwerk dus nog steeds duur. De 1000 DevOps keuzen waarover Henri het heeft bij optuigen van een database lijkt me daarin sprekend. En volgens mij breidt Willem de configuratie opties nog een beetje uit, leuke discussie punten voor een panelsessie misschien?
Praktijkervaring is namelijk dat de ’tweaking and tuning’ meestal pas achteraf gedaan wordt en vaak (tijdelijk) opgelost wordt met hardware. Dat is een keus natuurlijk maar de innovatie van vandaag is gewoon weer de legacy van morgen als je niet blijft meten en wegen.
Ewout,
Afdwalen is ook zeker toegestaan. Maatwerk in de Cloud is vaak nog prijzig of soms helemaal niet mogelijk.
Ik ben erg benieuwd of Henri hier nog wat meer over kan roepen.
Tweaking en tuning gebeurt altijd achteraf. Maar eventuele teleurstellingen kan je voorkomen door vooraf goed je huiswerk te doen en alles goed in kaart te brengen.
En voor een paneldiscussie sta ik altijd open.
Ik heb het erg druk op het moment, maar hier kort mijn twee centen.
Waar het op lijkt -met AWS als voorbeeld- is dat als je uiteindelijk complexe dingen wilt doen (maatwerk) dit uiteindelijk…. complex wordt. Dus AWS faciliteert steeds meer de enterprise, maar verliest uiteindelijk een van de aantrekkelijke eigenschappen van commodity en dat is eenvoud. Waardoor je uiteindelijk toch weer een goede enterprise architect nodig hebt om het goed te doen en dat kost….. veel geld. Als je met AWS dezelfde dingen wilt als de enterprise lijkt het er in ieder geval niet op dat het er goedkoper op wordt. Had van de week een scale-out architectuur opzetje gemaakt (met SSD), maar dat werd zeer prijzig, mede door MS SQL Server licenties. Waar ik erg van schrok is de snelheid waarmee AWS complexer wordt. Dus of maatwerk mogelijk is hangt af van de provider. Windows Azure is “simpeler”, maar betwijfel of ze dat blijven als meer enterprise bedrijven overstappen en hun wensen kenbaar maken.
Ander nadeel van cloud (en de snelle ontwikkelingen) is dat je “huiswerk” al achterhaald is als het af is.
Dus ja, er is steeds meer (performance) mogelijk, maar dat komt wel met een prijs.
Natuurlijk kun je simpel en kaal een EC2 VM instance lanceren, maar zeker als je voor delen SSD in wilt zetten, wordt het al snel complexer en meer werk om het door te rekenen.
Henri,
Dank voor je toevoeging.
Bij AWS en Azure is dit herkenbaar. Bij de andere partijen zoals TerreMark, Interoute en Rackspace is er meer flexiliteit mogelijk.