De hoeveelheid opslagruimte die consumenten nodig hebben neemt alleen maar toe. Volgens onderzoeksbureau Gartner van 329 exabyte in 2011 tot 4,1 zettabytes in 2016. Consumenten slaan in 2016 meer dan een derde van hun digitale content op in de cloud. In 2011 was dat nog maar 7 procent.
Overal content delen om dit vervolgens via meerdere apparaten weer op te halen wordt steeds meer de norm. De tijd dat we altijd achter dezelfde pc zaten, waar onze bestanden op stonden, ligt achter ons. Die cijfers met elkaar gecombineerd, hebben consumenten de komende vijf jaar grofweg 65 keer meer opslagcapaciteit nodig in de cloud. Dat is gigantisch. Niet veel mensen beseffen voor welke uitdaging datacenters staan. In vijf jaar tijd de capaciteit ver-vijf-en-zestig-voudigen terwijl dit natuurlijk wel betaalbaar, schaalbaar, beheersbaar, veilig en stabiel moet blijven. Hoeveel bedrijven in andere sectoren zouden die uitdaging aan kunnen?
Gaan datacenters die uitdaging winnen? Tuurlijk, en waarschijnlijk ook nog eens zonder dat consumenten echt in de gaten hebben welke problemen er achter de schermen allemaal opgelost moeten worden. Dit willen ze ook niet weten. Wat telt is dat hun foto’s en hd-video’s veilig en overal beschikbaar zijn.
Alle grote opslag en netwerkbedrijven houden hier, als het goed is, al lang rekening mee. De manier waarop datacenters ooit ingericht zijn voldoet niet meer in de huidige tijd, maar deze complexe architecturen veranderen gelukkig snel. Nieuwe switches en geheugen moeten voortaan stapelbaar, schaalbaar en betrouwbaar zijn, terwijl ze ook nog eens makkelijker te beheren zijn en kosten reduceren. Het zal lukken, maar alleen als bedrijven blijven innoveren en durven te investeren in de ontwikkeling van nieuwe technologieën. Liefst een paar stappen vooruit, voordat ze tegen grenzen aanlopen.
Steven,
Leuke cijfers. Maar daar is ook alles mee gezegd.
Dat de omvang van data steeds toeneemt is natuurlijk al jaren bekend. En dat de technologie hier op aangepast dient te worden is ook geen wereldnieuws. Wat minstens net zo belangrijk is om het beheerbaar en simpel te houden. Niet alles wil je op je infrastructuur hebben. En niet alles dient over het “lijntje” te gaan.
En dat los je niet met nieuwe technologie (switches/storage) op. Dat is meer een politieke discussie. Wat is belangrijk? Wat mag wel op mijn ICT omgeving staan en wat absoluut niet? Hoe lang dient het bewaard te blijven etc. etc.
Ik mis even je boodschap in dit stuk.
Er zijn centrale en er zijn decentrale oplossingen voor. daarnaast met de toenemende netwerkperformance hoe je niet alles altijd op te slaan, die leuke film kan later ook weer gedownload worden. Datzelfde geldt met sync-services, niet alle data altijd op al je devices,
Kortom er is een “trade-off” tussen opslag en datacommunicatie. Misschien goed om daar even bij stil te staan. Het citeren van “orakel” Gartner en interpreteren ervan is niet de weg naar de oplossing.
Natuurlijk wel goed om dit onderwerp te adresseren, omdat nog te veel het datacenter als de heilige graal gezien wordt……
Dat de opslagbehoefte groeit als kool is misschien wel omdat we nog steeds proberen om de kool en de geit te sparen/bewaren. Want met toenemende digitalisering gaan we steeds meer opslaan, in grotere bestanden en met meer diversiteit.
Dit alles kun je opslaan in eigen datacenter maar ook steeds vaker in de Cloud, de Shurgards in de ICT. Want hoeveel van die 4,1 zettabytes is bedrijfsdata, kritische informatie voor de processen?
Wat ik ook mis is of de datagroei komt uit de gestructureerde data, de databases die groeien door meer activiteiten, of de ongestructureerde data uit allerlei nieuw media diensten. De Q-koorts in de ICT is namelijk dat er niet altijd gekeken wordt naar de waarde van de data. De prijserosie in gigabytes heeft ervoor gezorgd dat we alles maar bewaren, dubbel opslaan en daarmee steeds meer problemen krijgen met transport, beveiliging en de verwerking hiervan.