De kop van deze bijdrage schept meteen verwachtingen. En nee, er is in mijn en co-auteur Ruud Mulder’s optiek nog geen alles omvattende blauwdruk voor het datacenter van de toekomst. Een toekomst waarin begrippen als big data, internet of things (IoT), web scale it, bring your own, cloud, mobile en software defined everything de eisen aan de it-infrastructuur omhoog duwen.
De meningen en visie van de verschillende technologieleveranciers verschillen nogal van elkaar in aanpak en ontwikkeling. Wel zijn er drie grote trends uit te herleiden we hie nader willen toelichten. Deze trends zijn die van de converged infrastructuur, de hyperconverged infrastructuur en het software defined datacenter (sddc).
De conventionele infrastructuur
De conventionele infrastructuur bestaat grofweg uit een drietal logische, maar ook fysieke, lagen: datacenter (compute,network,storage ) en vervolgens knoop je de bij elkaar horende componenten aan elkaar. Op dit moment is bovenstaand nog de meest gebruikte strategie. Het is al sinds jaar en dag op de markt beschikbaar en we zijn inmiddels niet anders gewend (het monolitisch mainframe is voor de meesten van ons toch echt wel voltooid verleden tijd). Wij zien dit als het ‘choose & build your own’-model.
Een veelvoorkomende uitdaging is hier vaak dat de ketens van de infrastructuur niet optimaal op elkaar afgestemd zijn. Ook ligt de verantwoordelijkheid op het gebied van regie en support nog al eens verspreid en dat levert discussies en misverstanden op. Groot voordeel van dit soort infrastructuren is dat je zelf veel vrijheid van keuze hebt en dat je, zolang het niet te groot en complex wordt, nog lekker kan ‘hobbyen’ om het aan de praat te krijgen en te houden. Politiek gezien ligt de instap naar een conventionele infrastructuur meestal niet gevoelig. Dit omdat je de traditionele it-clubjes zoals server-, netwerk- en opslagbeheer gewoon nog in leven houdt.
De opkomst van converged infrastructuur
Converged infrastructuren zijn enorm in opkomst. Standaard samengestelde bouwblokken (compute, network, storage) die je zo naar binnen rijdt en die optimaal op elkaar afgestemd en ingespeeld zijn en die zeer snel zijn uit te rollen. Mooier kan bijna niet. Converged infrastructuren zijn voornamelijk hardware-gedreven met daarover een geïntegreerde laag software die de verschillende management-interfaces van de betreffende technologieleveranciers onder water aan elkaar vast knoopt.
Nadeel van dit soort oplossingen is dat er wordt uitgegaan van een ‘big bang’-implementatie. Een converged infrastructuur biedt standaard alle lagen van de infrastructuur in één keer aan als één logisch geheel. Dus een gefaseerde overstap is niet mogelijk. Tevens is de schaalbaarheid gebaseerd op de bouwblokken en niet op componentniveau van de onderliggende technologielagen. De ideale use case voor dit soort converged infrastructuren is de complete vervanging van een infrastructuur, maar denk ook aan bijvoorbeeld een nieuw in te richten vdi-project dat modulair op te schalen moet zijn. Zo’n standaard bouwblok biedt namelijk vaak een vaste en lineair stapelbare capaciteit en performance.
In de wereld van de converged infrastructuren is ook een nieuwe vorm sterk in opkomst. Dit is de hyperconverged infrastructuur. In grote lijnen vergelijkbaar met de converged infrastructuur, maar software- (software defined) in plaats van hardware-gedreven. Natuurlijk maak je nog altijd gebruik van hardware, alleen wordt hier commodity hardware ingezet en is de hardware vendor lock-in minder aanwezig. De instap is financieel gezien vaak gunstiger dan bij de converged infrastructuren.
Alles wordt softer
Een nieuwe term, die je dagelijks voorbij ziet komen, is het software defined datacenter (sddc). Dit staat eenvoudig weg voor het volledig virtualiseren van je datacenter. Virtualiseren is zeker niet nieuw; we zijn immers al jaren gewend aan het virtualiseren van compute, dus op zich is dit een logisch gevolg. Na compute zullen ook storage en network gevirtualiseerd worden. Deze trend is goed in de markt te zien, omdat bijna alle hardwaretechnologiebedrijven langzaam de transitie naar een softwaretechnologiebedrijf aan het doormaken zijn.
Uiteindelijk zullen compute, network en storage volledig commodity gaan worden. De drie componenten worden zodanig gestandaardiseerd dat het niet meer uitmaakt waar je ze koopt. Slimme software zal de vragen van de gebruikers doorvertalen naar de hardware lagen daaronder.
Deze trend wordt natuurlijk voornamelijk gedreven door de cloud en de vraag naar flexibiliteit en keuzevrijheid. Iedereen in ict-land is opgegroeid met de hardware lock-in. Als je op één van de lagen in je infrastructuur een bepaalde keuze had gemaakt, kwam je daar vaak niet zo makkelijk meer vanaf. De technologieleveranciers vonden dit natuurlijk alles behalve erg als je al klant van ze was. Dit was toch een soort van verzekering dat de eindklant bij je terug bleef komen. Maar die eindklant was hier vaak toch wel de dupe van, omdat hij beperkt werd op het gebied van flexibiliteit en keuze.
Het doortrekken van de virtualisatietrend in het volledige datacenter is daarom ook een logisch gevolg dat hier slim op inspeelt. Ook hier zie je grofweg gezegd twee strategieën.
Gefaseerde transitie naar sddc
De overstap zal gefaseerd plaatsvinden. Ideale momenten hiervoor zijn het einde van de contractperiode van één van de twee logische lagen (storage of compute). Met deze aanpak zal het datacenter gelaagd een transitie door maken.
Na het virtualiseren van compute zien wij dat storage de volgende stap is. Software defined storage (sds) geeft je de vrijheid om op commodity servers een storage laag aan te bieden, die als één logisch geheel zal gaan dienen. Groot voordeel is de gefaseerde afschrijving en het feit dat je eindeloos kunt blijven groeien. Migratieproblematiek zal daardoor afnemen.
Een andere logische stap zal de aansturing en het management van je infrastructuur zijn. Denk hierbij aan technologie die je gehele infrastructuur als één logisch geheel zal automatiseren. Met een druk op de knop kan je nu een proces/rol aanvragen en je hoeft niet meer alle eilandjes af te zwemmen langs de compute-, network- en storage-clubs.
Echter, er blijft bij de gefaseerde transitie wel weer dezelfde uitdaging bestaan die we bij de traditionele infrastructuur al hadden: het optimaal afstemmen van de technologie van de onderliggende lagen. In de wereld van software defined is er nu eenmaal veel wildgroei gaande. En niet iedere smaak is nog helemaal af of volwassen genoeg.
Big Bang scenario
Een alternatief voor de gefaseerde migratie is het welbekende ‘big bang scenario’. Net als de overstap naar converged infrastructuren is dit niet voor iedere organisatie even haalbaar. Vaak is zo’n soort overstap alleen weggelegd voor hele grote organisaties. Groot voordeel van een volledig sddc is dat buiten compute, network en storage ook een out of the box management, user- en provisioning-portal geleverd wordt. Bovendien zijn er voorgedefinieerde blueprints van bepaalde omgevingen (vdi/db/mail/applications) aanwezig waardoor zaken gemakkelijker en sneller uit te rollen zijn. Rapportage en chargeback en andersoortige business-mogelijkheden zijn direct beschikbaar over de gehele infrastructuurketen en moeten alleen nog ‘getweakt’ worden naar de specifieke wensen en eisen van de organisatie. Groot nadeel van dit soort oplossingen is dat een gelaagde aanpak vaak niet mogelijk is en dat de keuze vooraf vaak al bepaald en daarmee beperkt is. Op zich is dit logisch, want het moet natuurlijk wel optimaal met elkaar kunnen praten.
Voorspelling
Onze visie is dat hardware (compute, storage en network) wel degelijk commodity gaat worden, ondanks dat sommigen van ons in het verleden wel eens geroepen hebben dat bijvoorbeeld storage geen commodity is. Software gaat, hoe je het ook wendt of keert, de dienst uitmaken. Het aangekondigde verdwijnen van de vendor lock-in gaat niet gebeuren. De lock-in verplaatst zich naar de leverancier van de sddc-software en zal in veel gevallen zelfs nog groter worden. De transitie van hard- naar software is perfect voor de transitie naar de cloud (denk hierbij vooral aan hybride cloudvormen).
Public cloud gaat het in onze optiek voorlopig nog niet worden, want sommige zaken wil je nu eenmaal dichtbij hebben. Al is het alleen maar voor het gevoel dat het dan veiliger is. Software defined speelt superslim in op de hybride cloud-trend. De ene keer wil je het binnen hebben en waar nodig wil je het ook naar buiten kunnen verplaatsen. En dat gaat nu eenmaal makkelijker met software dan met hardware.
Deze bijdrage is geschreven in samenwerking met Ruud Mulder, computable-expert voor de topics Cloud Computing, Storage en Loopbaan.
Computable magazine
Deze opinie is ook gepubliceerd in het Computable magazine jaargang 48, april 2015.
Op de werkvloer komt dit onderwerp meerdere keren per maand langs. En in ieder discussie komt weer dezelfde uitkomst naar boven.
Software zal de hardware ongelimiteerd gaan consumeren. Doordat er meer resources instant beschikbaar zijn zal software ook meer gaan verbruiken. Kijk naar alle VM’s die nu liggen onnodig staan te spinnen. Ff een kopietje trekken van je OTA omgeving gehoord tot de mogelijkheden…
Uiteindelijk zal het toch wel een moeizame weg worden. Want het lijkt zo mooi, alle beheren vanaf een management schil.
Maar deep down worden nog steeds alle logische gemaakt. En deze kunnen soms beter functioneren door veranderingen of nieuwe inzichten.
En dan zal je net zien dat je commodity hardware dit niet ondersteund. Nieuwe technieken zullen niet altijd 100% backwards compatibel zijn.
Uiteindelijk zal je complete landschap blijven groeien, het werk zal meer en meer complexer worden.
Ik hou wel van de IT, ik hoop over 20 jaar nog steeds met plezier te werken.
@ Rob,
Ja,als iets sneller en gemakkelijker uitgerold kan worden, dan wordt het ook eerder en mogelijk sneller aangevraagd. Dit is wel een logische trend die ik ook in het veld zie terug komen. Gelukkig gaat het terug halen natuurlijk ook een stuk sneller. Dus wordt het niet gebruikt dan heb je dat sneller door, en haal je het weer uit de lucht.
En ja het zal wel een transitie worden van vallen en opstaan. Maar ja dat is met alles wat nieuw in IT-land is zo. Juist daarom is een goeie fasering van groot belang. In mijn optiek is er namelijk nog geen one size fits all SDDC oplossing. Er wordt nu nog vaak met referentie architecturen gewerkt.
Commodity hardware wordt nu voornamelijk nog in Hyperconverged oplossingen gebruikt. En hier wordt nog vaak gewerkt met HCL’s of pre-configured configuraties. Dus helemaal commodity is het nog niet omdat dit vaak toch nog op de grote HW leveranciers gebaseerd is. Maar dat zal in mijn optiek in de toekomst wel gaan veranderen. Hardware zal steeds meer standaard worden en de intelligentie zal vanuit de softwarelaag aangeleverd worden.
@Rob, we werken allemaal in een bedrijfstak die druk bezig is om te blijven innoveren. Dat proces duurt nog wel even dus die 20 jaar gaat je vast met veel pleziwer lukken.
Ik denk echter niet dat er in die 20 jaar niets veranderd. Zowel aan de vraagkant (meer, sneller en flexiber IT kunnen leveren) als aan de aanbodkant (oplossingen van de bepalende leveranciers) gaat de verandering door.
SDDC is een stip op de horizon waar we naar toe werken. Langzaam maar zeker zullen verschillende aspecten steeds meer breed geaccepteerd en toegepast worden.
Virtualisatie van servercapaciteit is geen discussie meer. Ook het ongebreideld server sprawl die de kop op stak is gestabiliseerd en onder controle gekomen.
De ontwikkelingen in technologie maken dat we steeds verder in abstractie met IT kunnen omgaan. De ponskaarten zijn al in het museum beland. Assembler wordt alleen nog in heel specifieke niches gebruikt. Main stream oplossingen hebben direct contact met de fysieke infrastructuur meer nodig.
Leuk artikel Guido. Ik denk dat het nog eens zo gaat worden dat computer power en storage zelfs op geheel verschillende locatie kunnen zijn. Je krijgt dan computer power leveranciers en specifieke storage leveranciers. We zijn echt nog niet aan het einde van de mogelijkheden
@Ruud, helemaal eens. Ik weet dat Microsoft bijvoorbeeld werkt aan een model waarbij de data op eigen locatie opgeslagen wordt in een soort black box, en de logica in de Azure cloud overal en altijd beschikbaar is. Is een oplossing voor het probleem van privacy regels en eigenaarschap van de data.
Dit is maar één van de zaken die er aan gaan komen. Het verleggen van de intelligentie naar een onafhankelijke softwarelaag maakt dat zaken die eerder niet mogelijk waren, nu heel logisch worden. Blijft spannend in de IT, nog jaren!
Goed artikel en eigenlijk helemaal mee eens (en dat gebeurt niet zo vaak).
@Rob, klopt dat makkelijk consumeren resulteert in sprawl van VMs. M.i. moet dat dus strak gestuurd worden of een financiële consequentie aan hangen. Maar in ieder geval gemanaged, waarbij wordt gecontroleerd of omgevingen gebruikt worden of niet. Omdat in een SDDC workloads makkelijk uitgerold kunnen worden is er ook minder noodzaak om reeds uitgerolde omgevingen te behouden als ze (tijdelijk) niet gebruikt worden.
Mijn ervaring is dat als men overgaat naar een SDDC al gedurende het migratie traject een hoop (10-20% en soms nog meer) van de VMs worden opgeruimd omdat die (tijdelijk) niets doen.
@Ruud. Ja voor een deel van de data zal dat zeker kunnen. Je ziet nu al verschillende publieke object storage oplossingen in de markt. Maar een ander deel (bijvoorbeeld traditionele DBs) zal toch dicht bij de Compute moeten staan. Maar de trend is zeker daar. De nieuwste technologie maakt het mogelijk je netwerk volledig door te trekken in een public cloud en daarmee een volledige geïntegreerde hybride omgeving te creëren. Daardoor kan je op basis van applicatie criteria bepalen waar workloads draaien en on-the-fly verplaatsen. Met alle netwerk, storage, compute, security definities die aan de applicatie zijn toegekend. Waarbij het best dus zo kan zijn dat de storage niet per se bij de applicatie hoeft te staan, zolang maar aan de applicatie criteria wordt voldaan.
Misschien nog wel het aller belangrijkste. Dit vraag een andere manier van IT bedrijven. Geen silos meer van netwerk, storage, compute, security, etc. maar een SDDC team (waar vast nog wel specialisten zijn, maar ook beheerders en engineers die het hele speelveld overzien). Waarbij DC diensten as-a-service worden geleverd, dus betaald voor daadwerkelijk gebruik, via een portal en geautomatiseerd geleverd (en beheerd). Hoewel de technologie dit mogelijk maakt moet er veel nauwer samen worden gewerkt met de business om ervoor te zorgen dat de diensten aansluiten bij de behoefte. En waar dit niet zo is, te kijken of je dit intern of extern kan leveren. De IT afdeling wordt daardoor ook een broker van publieke/hybride diensten. Waarbij de Demand en Supply goed op elkaar moet worden afgestemd.
Oftewel, we gaan interessante tijden tegemoet. Met de nodige hobbels, maar volgens mij is er geen weg terug en als je stil staat wordt je hard voorbij gelopen. Want de business heeft keus. Als jij het niet biedt, dan gaan ze zelf wel naar de publieke cloud provider toe, maar dan ongecontroleerd en waarschijnlijk niet voldoende secure en compliant. Onlangs hoorde ik een uitspraak van een CIO uit Duitsland : “CIOs get the Shadow IT they deserve”…..
Aernoud,
Mooie toevoeging. Waar voor dank!
Je haalt zeer valide punten aan. Om even op je 2e punt terug te komen.
Ja een transitie naar het software defined DC is een cultuurschok voor velen onder ons. Het is een andere manier van denken en doen. En niet iedereen kan of wil deze verandering ondergaan. Nu zijn het vaak nog aparte clubjes die het netwerk, storage of compute beheren. En met virtualisatie van alle logische lagen van de infrastructuur keten, zal er veel meer samen gewerkt moeten worden.
Ook zal op termijn de beheersinspanning af gaan nemen en anders worden. Al zal specialistische kennis van de hardware waar het SDDC op draait, altijd nog in zekere mate nodig zijn.
Toch zie je vaak dat de traditionele administrators van de logische lagen niet altijd even enthousiast zijn. Dit omdat hun rol zal gaan veranderen. En verandering is voor velen onder ons altijd eng. Het traditioneel beheren van de eerder genoemde logische lagen zal veranderen tot het beheren van virtuele resources. En daar is buiten de traditionele kennis ook additionele kennis voor nodig ( automation/management/cloud/rapportage etc. ) Juist dat laatste biedt kansen om nieuwe kennis op te doen. De tijd die men nu in het beheer en het in de lucht houden van de omgeving steekt, kan men dan steeds meer in innovatie steken. Welke toegevoegde waarde voor de business zal hebben en ook mogelijk geld op zal leveren (Big Data, BI, Social media, Customer Care ). IT zal dan niet meer gezien worden als kostenpost maar als daadwerkelijk onderdeel van de business.
En ja je niet aanpassen aan de nieuwe speelstijl zal er voor zorgen dat je steeds vaker buitenspel komt te staan, en misschien erger nog mogelijk ook op de bank belandt.
Aernoud en Ruud,
Ik ben het met jullie eens dat de grootste rem op de complete implementatie van SDDC het conservatisme, de installed base en gebrek aan veranderingsbereidheid in de IT is en zal blijven.
Het concept is uiteindelijk heel simpel. Je definieert van elke workload, applicatie of hoe je het noemen wilt aan welke criteria (SLA) voldaan moet worden. Hoe meer je wilt, hoe meer je betaalt. De softwarelaag interpreteert deze parameters en op basis daarvan wordt de juiste infrastrucuur ingezet.
Of dit gebeurt door hele robuuste en slimme hardware te gebruiken of door een proces altijd 5 keer uit te laten voeren op 5 verschillende locaties is aan de software.
Dit fly-by-wire principe zien we overal om ons heen, behalve in de administratieve automatisering. Mooi is juist dat door de ontkoppeling van de vraag van de fysieke implementatie, hele nieuwe delivery-modellen kunnen en zullen ontstaan. De ontwikkelaar praat niet meer over LUN’s en processoren, maar over capaciteit en performance. Het SDDC zal dit vertalen naar de juiste implementatie. Spinning disk of flash, fiber of koper, het SDDC knows best.
Natuurlijk blijft het de fysieke infrastructuur die uiteindelijk de processen uitvoert. Echter, de één op één relatie tussen infrastructuur en oplossing verdwijnt. Verstoringen in de infra worden, afhankelijk van de SLA, door de software gemitigeerd en het onderhoud aan de fysieke infrastructuur zit niet op op het kritieke pad.