Wanneer de prijs van flash-geheugen die van traditionele harddisks zal naderen, zullen organisaties voor hun opslag overstappen op het vaste geheugen zonder bewegende delen. Dat voorspelt expert Herbert Smals van Dell. De hogere snelheid van chipgeheugens maakt deze vorm van opslag zeer gewild. De hogere kosten van de zogeheten solid state disks (ssd’s) maakt echter dat organisaties dit geheugen zeer selectief toepassen.
Volgens Smals is de keuze voor flash ook goed voor het milieu. ‘Flashgeheugen is zuiniger met energie dan traditionele harde schijven. Op plaatsen waar je veel data opslaat, levert dat forse besparingen op. Bovendien wordt bij de productie minder gebruik gemaakt van metaal. Daardoor is flashgeheugen ook makkelijker te recyclen.’
De Computable-kennissessie ‘Waarom en wanneer kiezen voor flash-storage?’ werd gehouden tijdens de ict-vakbeurzen Infosecurity, Storage Expo en het Tooling Event in Jaarbeurs Utrecht. Het gesprek werd geleid door Computable-expert Ruud Mulder van Unisys. De experts aan tafel waren Jur Faber (Consolidate IT), Arsalan Jahangir* (EMC), Ronnie Oomen (Pure Storage) en Herbert Smals (Dell). Bekijk hieronder een compilatie van de discussie.
Samengevat, ja het wordt (eindelijk) flash / SSD. Maar gezien de ontwikkelingen op gebied van prijs, prestatie, ruimtebeslag en vooral de betrouwbaarheid, duurt het nog gauw 10 jaar voordat je geen nieuwe conventionele harde schijf meer kan kopen. Waarschijnlijk duurt het nog wat langer, en dan is vast ook de opvolger van flash op markt gekomen. Dus of het allemaal flash wordt, ik denk van niet.
Natuurlijk is de SSD voor veel toepassingen reeds aantrekkelijk genoeg. Voor gewone massaopslag dat niet frequent en zwaar aangesproken wordt, is dat nu niet kosteneffectief, zoals Marcel heeft aangetoond. En of over die 10 jaar bijvoorbeeld een 16 terabyte SSD niet veel meer zal kosten dan een wat langzamere16 terabyte harde schijf, dat is ook nog de vraag. De doorvoersnelheid neemt in principe af bij miniaturisering omdat extra verwerkingstijd nodig is voor foutcorrectie (i.v.m. nanoslijtage). En dan raak je juist het belangrijkste voordeel van flash ten opzichte van de harde schijfweer kwijt. En dat probleem heeft men nog niet opgelost. Dus voolopig nog geen 16 terabyte SSD’s.
Een inkopper van Dell, SSD wordt langzaam gemeengoed en net als elke nieuwe technologie is de prijs per GB de belangrijkste drijfveer voor de adoptie curve. Dit is een uitspraak in de trant van ” Als de auto de prijs van de fiets benaderd koopt niemand meer een fiets. Enig realisme zou toegevoegd moeten worden.
Er waren 10-15 jaar geleden mensen die riepen dat Tape over 10 jaar niet meer zou worden gebruikt, hoe anders is het vandaag de dag.
Het gaat nog wel even duren voordat grote volumes opslag tegen een lage prijs op SSD kunnen worden gerealiseerd. Daarnaast blijft de SSD technologie afhankelijk van een controller met firmware en de i/o bussen. Dit is gelijk aan de huidige HD techniek.
Ik verwacht meer van fusion drives zoals Maarten aangeeft, waarbij de SSD of Flash drive voor de snelheid zorgt en de HD voor het volume. Je hebt soms snelheid nodig, maar volume heb je altijd nodig. De controller is in de meeste gevallen de bottleneck, dat is per disk en ook in de SAN omgevingen op een hoger niveau.
Verder zie je verschillende ontwikkelingen op het gebied van Flash, zoals NAND flash.
Er zijn overigens al opvolgers voor de SSD drives, Intel is bezig met NVM, Non Volatile Memory, waarbij de aansturing volledig in hardware gebeurt, supersnel. Daar zit je in de Enbterprise op te wachten tegen de prijs per GB van de HD.
@Ewout:
Ik had geen oordeel over hoe Ruud deze sessie geleid heeft, ik gaf alleen maar aan dat je samenvatting zodanig mooi en compleet was dat ik zou denken dat jij die sessie geleid had.
Ruud en jij zijn collega`s en dat jullie elkaar goed kunnen aanvullen is alleen maar mooi (ook voor jullie werkgever)daar is toch niks mis mee.
@Ruud,
Ergens heb je gelijk in! Ik ben niet bij deze sessie geweest (ik moest kiezen tussen sessie van Cloud en deze! Keuze was snel gemaakt 🙂 )maar dat zegt niet dat ik mijn mening gebaseerd heb op alleen 4 minuten opname. Ik heb ook daarna verschillende gespreken gehad met mensen die verschillende sessies meegemaakt hebben. Wat ik hierboven zei komt ook deels uit dat gesprek.
En….naar mijn mening en zoals ik dit eerder hierboven heb aangegeven, de inrichting van je storage (en ook dus het soort van je disks) is afhankelijk van veel zaken. Je zou dit in de hele keten moeten bekijken.
@ Willem,
Goede toevoeging. Dit wordt bij de Enterprise storage oplossingen al enige tijd gedaan door middel van Automatic Storage Tiering. Flash voor de snelheid en capaciteitsdisken voor de opslag. En slimme software die bepaald waar het komt te staan.
Het beeld dat je schetst over dat de controller vaak de bottleneck is natuurlijk niet helemaal correct. Als je vooraf goed je huiswerk doet dan kan je dit voorkomen.
Ook zie je in storageland een 2-tal oplossingen. De framed en non-framed storage oplossingen. Framed werkt met controllers die een bepaalde capaciteit aan kunnen. Bereik je de max dan groei je door naar een zwaarde controller. En non-framed werkt met eigen controllers per box. Dus bij iedere uitbreiding krijg je IO en capaciteit.
Beide varianten hebben zo hun eigen voor en nadelen. Misschien moet ik hier in de toekomst nog maar eens stukje aan gaan wijden om het wat nader toe te lichten.
Performance zal hoe je het went of keert grotendeels uit je spindels komen. De controllers dienen dit alleen maar te faciliteren. Maar ik deel je mening dat het belangrijk dat je een mogelijke bottleneck voorkomt.
@ Reza,
Ik vorm altijd mijn mening als ik zelf ergens bij ben geweest. Op de verhalen van anderen afgaan doe ik al jaren niet meer. Dat creeert alleen maar meer onduidelijkheid en vaak een vertekend beeld. Tenminste dat is mijn ervaring.
De signalen die ik na afloop hoorde waren anders dan wat jij schetst. De sessie is erg positief ontvangen. En werd door sommige zelfs iets te technisch gevonden. En dat is een verkooppraatje natuurlijk nooit.
Al is het wel jammer te noemen hoe het filmpje gemonteerd is. Als dit anders gebeurd was dan had het gros van bovenstaande vragen al beantwoord geweest aangezien dit wel degelijk besproken is.
En ja je hebt gelijk dat er naar de gehele keten gekeken moet worden. Dit is ook uitvoerig besproken tijdens de discussie. Een goede voorbereiding is het halve werk. Meten blijft ook hier weer weten.
Is mijn applicatie er geschikt voor? Kan mijn infrastructuur het wel aan? Behaal ik er wel echt winst mee? En dit moet je vanaf bovenaf ( gebruiker ) meten door alle onderliggende ketens/lagen ( applicatie, netwerk, storage etc )etc. etc. Pas dan kan je de juiste keuzes maken. Maar hier heb natuurlijk al veel vaker stukjes over geschreven.
Maar misschien moet ik ook hier binnenkort weer eens wat extra aandacht aan geven.
@ Maarten,
Goede toevoeging. Alleen is monitoren niet altijd genoeg.
Disken ( flash of non flash ) gaan een keer stuk. En RAID biedt dan een stukje extra zekerheid om dit op te vangen.
Ook levert RAID voordelen zoals capaciteit en performance op. En beide zijn in Enterprise storage omgevingen cruciaal.
@Ruud,
ik bedoelde monitoren of actief laten signaleren van de raid stand van zaken, anders gaat de gebruiker je bellen voor de storing…., dan moet je opeens meer schijven tegelijkertijd vervangen…, met Raid kan het ook voordat de gebruiker het in de gaten heeft 🙂
@ Maarten,
Dan ben ik het natuurlijk helemaal met je eens 😉
Op Enterprise Storage systemen kan je dat ook proactief laten doen.
Dan kan het dus voorkomen dat de leverancier je belt met de medeling dat er disken vervangen dienen te worden.
@Ruud
anekkedote,..
zo heb ik in een project al eens gehad dat iemand langs ging bij een vestiging waar we op afstand zagen dat er een schijf stuk was, toegang geweigerd, want er was niets aan de hand alles deed het prima volgens de lokale keizer….:-) en de man was niet aangemeld….. dus het klopte niet. (beveiligde omgeving binnen de overheid)