Computerkracht blijft nog steeds toenemen. De wet van Moore blijft onverminderd gelden. Storage begint nu echter achter te lopen. We kunnen ongelooflijk snel berekeningen maken of data verwerken, maar lezen en wegschrijven begint de bottleneck te worden. Dat komt omdat harde schijven de afgelopen jaren niet sneller zijn geworden.
Sommige partijen lossen dit op door solid state disks (ssd’s) in te zetten. Vanuit performance-overweging zou je deze het liefst zo dicht mogelijk bij de rekenkracht plaatsen. Zolang storage direct op het moederbord aangesloten is, beschik je over maximale prestaties. Google en Amazon doen dit in hun datacenters: alles in een pizzadoos en alle pizzadozen in een rack. Een ideale situatie, die echter voor de meeste bedrijven niet haalbaar is, omdat hun software daar niet voor geschreven is.
Voor deze bedrijven wordt ssd ingezet in storage-arrays en deze zien we in twee smaken. De traditionele storage-arrays die ssd inzetten voor storage-tiering en de All Flash-arrays. Deze laatste zijn enorm in opkomst. Naast de nieuwe vendors die de afgelopen paar jaar deze markt hebben betreden, zoals Pure Storage, Skyera en Violin komen alle grote storage-vendors zoals EMC, Netapp en IBM nu ook met een eigen All Flash-array. Daarnaast heeft ook Cisco deze arena betreden met de overname van Whiptail.
Flash-geheugen in ssd’s is weliswaar sneller dan disk, maar heeft ook zijn beperkingen. Er is een groot verschil tussen read en write. Ssd geeft een enorme leesperformance, maar blinkt niet uit in schrijfperformance. Dit komt onder andere doordat sectoren op een ssd eerst gewist moeten worden voor er naar geschreven kan worden.
Om toch tot een goede schrijfperformance te komen, wordt er door veel vendors gebruik gemaakt van zogenaamde garbage collection. Dit is het preventief wissen en vrijmaken van schrijfruimte als achtergrondproces. Daarnaast zetten veel vendors in op deduplicatie en compressie, waardoor er veel minder geschreven hoeft te worden.
Overigens speelt ook mee dat ssd nog steeds duurder is dan disk, waarbij prijzen overigens wel blijven dalen. Compressie en deduplicatie zorgen ervoor dat in 2014 ssd zeer concurrend ten opzichte van disk storage kan worden ingezet. Zeker waar het gaat om performanceoplossingen. Voor grootschalige opslag zijn sata-disks nog steeds de logische keuze. Daarnaast is tape – in tegenstelling tot wat lange tijd is beweerd – zeker nog niet dood als je kijkt naar performance van sequentiele read en write en prijsniveau. Tape, disk en flash hebben elk hun eigen kenmerken en voordelen.
Ik verwacht dat in 2014 het marktaandeel van de All Flash-arrays flink zal groeien doordat deze breed zullen worden ingezet voor virtuele machines en vdi. Het opheffen van de bottleneck op storage zal ook een hogere bezettingsgraad van het aantal virtuele machines per cpu ten gevolge hebben. Een andere aanjager van ssd is dat het een hele groene oplossing is. All Flash-arrays verbruiken vaak een fractie van de energie die de traditionele oplossingen vragen.
Ewout,
De blocksize heeft zoals je aangeeft zeker invloed op de daadwerkelijke IOPS. Net als R/W verhouding. De getallen die ik noemde zijn bruto IOPS en niet de netto IOPS die je gaat halen in de Enterprise storageoplossing als je met blocksize en R/W verhoudingen rekening houdt. Dit verschilt per omgeving.
En ja, Storage is toch wat minder commodity dan iedereen denkt. Want zoals Reza al goed aangeeft is de gehele keten belangrijk. Een zwakke schakel in de keten zorgt er voor dat de gehele keten niet optimaal presteert. Als de bottleneck in storage opgelost is zal er vast en zeker wel weer 1 optreden op een andere plaats.
In de komende jaren zul je daarom ook steeds meer converged infrastructures gaan zien. Dit soort oplossingen zijn optimaal op elkaar ingespeeld en afgestemd.
Maar daar kom ik nog wel een keer op terug in een opiniestukje.
Ewout, Overal waar file-locks een onwenselijke rol spelen – zoals bij replicatie, (storage)migratie, snapshot-management, dfs, dpm, etc – is in voorzien.
Wat ik bedoelde met dat ODX voordeel is, dat SAN’s – soms hele bestanden – kunnen verplaatsen door de sectoren/clusters van de een bestand onder water van de ene file allocation tabel naar die van een andere partitie gebracht kunnen worden. Op die manier vindt fysiek helemaal geen overdracht van het bestand uit. Kopiëren van bestanden kan dan op dezelfde manier met hot/warm-links naar dezelfde daisy chain van clusters i.s.m. deduplicatie.
Binnen één server kan Windows dit soort technieken wel toepassen, maar shared storage kan dat in principe over meerdere servers.
Ik zou echter wel eens willen weten hoeveel 5 of 10 TeraByte SAN’s uit 2004 (van een half miljoen euro of zo) nog staan te draaien. Die dingen staan driekwart van hun leven verouderd te wezen en (politiek correct groene) stroom te vreten.
Rheza, ik begrijp je voortdurende occupatie met VDI niet. VDI is alleen maar interessant voor grafische- en videotoepassingen (om zoveel mogelijk hardware resources te concentreren en gedistribueerd beschikbaar te maken). Voor kantoorautomatisering biedt het niets boven goede client-devices of – eventueel – remote desktop, al zeker niet op het vlak van beheer. Eventueel valt er nog wel wat voor te zeggen om de desktops te virtualiseren, maar dan moeten ze nog steeds op het client-device draaien, niet centraal. Het kannibaliseert bovendien op de toevoegende waarde van allerlei concepten en ontwikkelingen die wel consistent in elkaar steken. Ik heb nog nooit meegemaakt dat iemand me de voordelen kon uitleggen terwijl ik voortdurend mensen hoor (waaronder jij) over de problemen die ze ervan ondervinden.
Rob,
Als eerste is er een enorme prijserosie geweest, in 2004 betaalde je nog een paar Euro per gigabyte tegen nu een paar cent. Het is dus niet helemaal realistisch om de investeringen van toen met nu te vergelijken. Het was daarbij ook nog het pre-virtualisatie tijdperk waarbij de markt voor SAN oplossingen vooral lag bij enterprise oplossingen – zie slide 5: http://www.slideshare.net/edekkinga/opslag-bepaalt-het-systeemprestatieniveau
Betreffende file locking heb ik me nog niet geheel verdiept in de laatste ontwikkelingen maar kijkend naar de problemen die er waren met roaming profiles, crashende applicaties en nog wat andere dingen noemde ik dit in reactie. Nu zei ik daarin ook dat storage uiteindelijk ’tweaking and tuning’ is, de gedachte van gecentraliseerde en gestandaardiseerde oplossing wordt enigzins los gelaten doordat er meerdere oplossingen zijn.
Nu leert ervaring ook dat als er keuzen zijn het adagium: “If there’s more than one way to do a job and one of those ways will end in disaster, then somebody will do it that way.” nog weleens opgaat omdat er niet altijd verder gekeken wordt dan reclamefolder. Wie dus een hamer verkopen wil maakt van alles een spijker.
Ewout, ik vergelijk investeringen van toen niet met die van nu. Ik vraag me af hoeveel daar nu nog van staat te draaien. Het grote nadeel van de vrijwel alle shared storage producten is, dat ze één samengestelde levenscyclus hebben. Dat maakt ze hopeloos in hun ROI(met als gevolg dat we ze wel met investeringen van nu mòeten vergelijken omdat ze ter financiële verantwoording met verouderde specificaties ‘groene’ stroom staan te vreten, ‘groen’ gekoeld worden, ruimte in kolossale ‘groene’ datacenters staan in te nemen, enzovoort. De grote innovatie van Windows Server 2012 t.o.v. 2008 is dat zij hierin een uitweg biedt.
Op dit moment probeert de markt met VDI van die ouwe SAN’s een bottleneck te maken en gelukkig stinken veel beslissers er wel in. Maar je bent toch niet helemaal te goeder trouw als je op die manier aan de bak probeert te komen.
Rob,
Ik begrijp waar je heen wilt maar dat is naar mijn opinie meer een business beslissing, ze willen snelheid en flexibiliteit. Dat dit niet altijd tot doelmatige IT leidt door hoge kosten komt doordat meeste ITSM implementaties het meten is weten hebben los gelaten.
De service wordt alleen nog beoordeeld op handelingen zoals oplostijd van incidenten en de snelheid van levering. Het is om die reden dat ik dus ook nog weleens sceptisch ben rond virtualisatie omdat het misschien wel voor snelle service delivery zorgt maar niet altijd tot efficiente inzet van middelen leidt.
Betreffende SAN is het misschien wel handig als je eerst eens kijkt welke ontwikkelingen er ondertussen allemaal zijn. Het diskcabinet is tenslotte nog maar een klein deel van de oplossing. Helaas moet ik wel erkennen dat het storage netwerk steeds vaker als een wolk gezien wordt, net als bij de cloud maakt niemand zich meer druk om de techniek erachter.
Want ik kan je verhaal ook omdraaien, een miljoen voor opslag is tenslotte geen probleem als je daarmee het tienvoudige of meer aan winst maakt. Maar helaas is door het ‘matrix’ beheer het zicht op de value chains in de IT ook verloren gegaan.
Rob, je miste het punt van het artikel dat we een omslag gaan krijgen van spinning disk naar ssd. Deze kun je ook gewoon in een windows server plaatsen en in je laptop. Het is niet een discussie van san vs local storage. Compressie en deduplicatie zijn belangrijke onderwerpen als je het over ssd hebt omdat ze de slijtage van ssd sterk kunnen beperken en omdat ze de kostprijs van ssd sterk verlagen.
Goed punt dat een ketting zo sterk als de zwakste schakel. Idealiter ontwerp je de hele keten en daar is storage maar een klein deel van.
@John, ik adviseer je dan toch je eigen artikel even te herlezen. Je zegt dat onboard storage het snelst is. Dat is niet (meer) waar (tenzij de server in de onboard vergelijking even zwaar is als de storage- en de storageclient-server samen. Verder heb je het over all-flash en hybride oplossingen. Het concept van StorageLan van 2012 server is nu juist dat het onderscheid tussen SAN-devices en servers in 2012 Servers is komen te vervallen. Het is maar net welke rol je ze toebedeelt. Zie het als een peer-to-peer netwerk van storage en storage gebruikende servers. Het gaat op generieke hardware en kan veel goedkoper op zijn minst gelijkwaardig presteren (maar in de praktijk vrijwel altijd veel beter). De hybride oplossing kun je in 2012R2 server zeer goed toepassen, maar voegt weinig toe aan het zeer effectieve gebruik van RAM. Een mainstream serverboard kan tegenwoordig al met 1 tot 1,5 Terabyte bestukt worden.