2014 wordt ongetwijfeld weer een bijzonder interessant jaar op it-gebied, met tal van nieuwe trends, innovaties en ontwikkelingen. De meeste experts zijn het er wel over eens dat dit het jaar wordt van de private cloud, van big data en van het 'internet of everything'. Maar ik vind het wel interessant om eens wat verder te kijken.
Wat kunnen we verwachten in de jaren na 2014? Welke ontwikkelingen zullen dit jaar worden ingezet, om in de jaren daarna concreet gestalte te geven? Hoewel ik weet dat het ‘gevaarlijk’ is om voorspellingen op technologiegebied te doen, is hier toch een aantal zaken waar we zeker meer gaan horen.
Het Exascale-tijdperk
Hoewel er is nog een hoop ontwikkelingen nodig zijn voordat het Exascale-tijdperk echt aanbreekt, staan we wel degelijk aan de vooravond van deze belangrijke technologische ontwikkeling. Exascale-computersystemen zullen een verwerkingscapaciteit bieden die een volle orde van grootte hoger ligt dan de meeste supercomputers van nu. Door gebruik te maken van grote aantallen, vaak parallel geschakelde, processors en cores, worden snelheden van meer dan één Exaflops mogelijk.
De huidige verwachting is dat we in 2020 voor het eerst echt zullen kunnen spreken van bruikbare en betaalbare Exascale-architecturen. Maar ik denk dat we dit jaar al een hele hoop discussie en misschien wat concrete aankondigingen kunnen verwachten. Het wordt interessant om te zien hoe de industrie er voor gaat zorgen dat niet alleen de rekencapaciteit het vereiste niveau bereikt, maar ook de prestaties van de overige componenten, zoals geheugencapaciteit en -snelheid, dataopslag en interne bandbreedte.
De bi-modale netwerkarchitectuur
Hoewel de lan’s, man’s (management area networks), en wan’s van nu al behoorlijk snel zijn, ze zijn nog altijd aanzienlijk trager dan de interne infrastructuren die worden gebruikt in moderne opslag- en computerplatforms. Daar spreken we probleemloos over Gigabytes per seconde, terwijl we het bij netwerken nog altijd hebben over Gigabits per seconde. En daarbij is dit een overtreffende trap met slechts een factor acht. Wat we echter nu beginnen te zien is dat de beheermogelijkheden voor opslagsystemen steeds uitgebreider worden, terwijl de latency binnen servers steeds lager wordt.
Toekomstige infrastructuren zullen waarschijnlijk beide architectuurmodellen ondersteunen. In het eerste model staan de hoogst mogelijke prestaties centraal, gekoppeld aan een zo laag mogelijke latency. Dit model zal geheugengebaseerd zijn, met zeer korte communicatiekanalen tussen krachtige opslagmiddelen en de applicaties, besturingssystemen, virtuele machines en servers die extra prestaties nodig hebben. Het tweede model is geoptimaliseerd voor schaalbare, betrouwbare datacommunicatie voor dataopslag en disaster recovery. Dit zou magnetische opslag kunnen zijn, maar er zijn ook andere technologieën. De focus ligt hier op de betrouwbaarheid en veiligheid van de data die applicaties nodig hebben om non-stop beschikbaar te zijn.
Interessant is dat we het hierbij over een architectuur hebben die niet echt gedistribueerd is, maar ook niet echt gecentraliseerd. Het is een combinatie, die aansluit bij de veranderende manier waarop informatie- en dataverwerkende systemen worden gebouwd. Ook de opkomst van software defined-architecturen (zie verderop) past bij deze ontwikkeling. De essentie is dat we een meer symbiotische relatie zullen zien ontstaan tussen de software en de hardware. Daarbij zal de verwerking van de data dichter bij de bron plaatsvinden, of worden analytische capaciteiten juist geïntegreerd in de opslagoplossingen. En dat brengt mij ook meteen bij het volgende punt.
Bij de bron data verwerken, analyseren en beslissingen nemen
Binnen het internet of things, met een relatief lage bandbreedte en onbetrouwbare wan-verbindingen, is het continu transporteren van data van de rand van het netwerk of vanaf devices naar het datacenter, niet echt een werkbare oplossing. Daar komt bij dat oplossingen zoals electronic data warehousing en Hadoop-platforms vaak aanzienlijke hoeveelheden data over het netwerk transporteren. Zo zijn er organisaties die data eerst uit een relationele database onttrekken, deze vervolgens binnen Hadoop verwerken en dan weer in een ander rdbms zetten voor verdere analyse met bi-tools.
Dit lijkt in tegenspraak te zijn met een van de basisprincipes van de Hadoop-beweging, namelijk: breng de applicatie naar de data. Het is daarom noodzakelijk om databronnen te voorzien van intelligente softwareplatforms die in staat zijn om analyses uit te voeren met een lage latency, in real-time beslissingen te nemen en datastromen uit te dunnen zodat ze makkelijker teruggezet kunnen worden in het centrale opslagsysteem. Besef daarbij dat in sommige gevallen dat terugzetten momenteel letterlijk gebeurt door data te kopiëren naar removable media en dat op te sturen naar een centraal punt, waar het uiteindelijk wordt geüpload naar het centrale systeem. Dit suggereert dat een informatiemodel dat gebruikmaakt van afgeslankte, relevante data misschien veel zinvoller is voor algemene analyse en verwerking dan ruwe data. Ik denk dat we dit jaar de eerste platforms zullen zien ontstaan die dit probleem beginnen op te lossen.
De via software programmeerbare infrastructuur
Een hele belangrijke ontwikkeling die in 2014 volgens mij echt op gang zal komen, is het programmeerbaar worden van computer-, netwerk- en opslagsystemen: het Software Defined Data Center (SDDC). Het komt er in feite op neer dat ontwikkelaars de mogelijkheid krijgen om dit soort middelen direct vanuit hun applicaties toe te wijzen en in te richten. Zo kunnen ze voorzien in de voortdurend groeiende en veranderende behoeften van hun klanten, of dat nu interne klanten zijn of externe.
Een van de belangrijkste ontwikkelingen op het gebied van het SDDC is volgens mij het Openstack-initiatief. Het zal niet lang duren voordat applicatie-ontwikkelaars echt de volledige controle over de it-infrastructuur krijgen. Een van de belangrijkste redenen om het beheer van it-middelen vanuit applicaties te doen, is om de complexiteit en de vele opties die applicatie-ontwikkelaars momenteel hebben, terug te brengen. Daarnaast zullen we eraan moeten wennen dat vrijwel alles ‘containerized’ zal worden in een virtuele infrastructuur.
Ontwikkelaars die bedreven zijn in DevOps zullen snel de benodigde ict-elementen in gebruik en uit gebruik kunnen nemen en deze compleet kunnen beheren. Denk bijvoorbeeld aan een applicatie-ontwikkelteam dat een belangrijke rol speelt binnen de it-organisatie en tegelijkertijd veel van hun ontwikkelingsinspanningen baseert op een public cloud-platform. Er is een reële kans dat de cloud op zeker moment niet meer kan voorzien in alle behoeften. Maar flexibiliteit is inmiddels ingeruild voor speed-to-market. Een goede oplossing zou dan bijvoorbeeld kunnen zijn om Openstack te gebruiken voor een private cloud, zodat de nieuwe applicaties daarop gedraaid kunnen worden. Ik denk dat we het komende jaar steeds meer private cloud-infrastructuren zullen zien die goed werken op Openstack.
Opslagmedia met gegarandeerde betrouwbaarheid
Klanten die exascale-systemen overwegen, denken na over het complete systeem, inclusief de opslagmedia. Voor een deel van deze gebruikers voldoen tape en disk niet meer en zij kijken – hoe vreemd het misschien ook lijkt – naar de mogelijkheden van optische media. Ze hebben namelijk te maken met beperkingen en allerlei overwegingen op het gebied van energieverbruik, fysieke ruimte en de levensduur van opslagmedia, in combinatie met groeiende eisen op het gebied van databehoud. Dan hebben we het in sommige gevallen over een levensduur van vijftig jaar of meer, zonder dataverlies. Bestaande opslagmedia kan hier niet aan voldoen.
Het is echter best mogelijk dat we aan de vooravond staan van een flinke opleving van optische media, vooral nu de standaarden volwassener zijn geworden er een duidelijke roadmap is voor de mediadichtheid, de toenemende behoeften van klanten en nieuwe mogelijkheden binnen de toeleverketen. Ik denk dan ook dat optische media voor een comeback staat, in ieder geval voor specifieke marksectoren. Het zou mij dan ook niets verbazen als dit jaar de optische opslagindustrie nieuw leven wordt ingeblazen, waarbij de focus dan wel verschuift van opslagmedia voor de consument naar oplossingen voor enterprises.
En dit alles betekent voor uw klant?
Numo, 3e persoon enkelvoud persoonsvorm o.t.t. eindigt altijd op t.
Moet lukken toch ?
Maakt je online presentaties ook geloofwaardiger.
@mauwerd, LOL, ik doe mijn best maar maak ook veel d en t fouten….
@NumoQuest :
Het betekent van alles, namelijk dat de wereld aan het veranderen is en dat deze verandering echt is. Ben erg druk de laatste tijd, dit artikel is er tussendoor gefloept, maar door de reacties toch gevonden.
Ik kan eigenlijk alleen maar onderschrijven wat hier geschreven is in dit artikel. Dus in mijn ogen goed artikel.
Aardig artikel, met wat onsamenhangende zaken van een verder nog onbekende expert.
Bij de bi-modale infrastructuur raak ik even lost: ‘Wat we echter nu beginnen te zien is dat de beheermogelijkheden voor opslagsystemen steeds uitgebreider worden, terwijl de latency binnen servers steeds lager wordt. Toekomstige infrastructuren zullen waarschijnlijk beide architectuurmodellen ondersteunen. In het eerste model staan de hoogst mogelijke prestaties centraal, gekoppeld aan een zo laag mogelijke latency.’
Eerst heb je het erover dat netwerken langzamer zijn dan interne infrastructuren voor opslag en computerplatformen, meet referentie naar bits en bytes. Ik weet niet over welke interne infrastructuren je het hebt, maar een opslagsysteem is meestal een SAN dat werkt over Fiberchannel of ISCSI en dan hebben we het meestal over 8 Gb per seconde of Ethernet 1 of 10 Gb per seconde en niet over bytes. Een wan is tegenwoordig al snel 1 Gb per seconde en een backbone 10 Gb per seconde of nog sneller….
Dan heb je het ineens over beheer van opslag? en verder de latency van servers. Van ltancy is met name sprake in netwerken en niet in servers. In een OS kan ook sprake zijn van latency, maar op server (processor niveau) is er nauwelijks sprake van latency, ik zou eerder spreken van jitter.
Dan kom je op architectuurmodellen en ben ik echt verdwaald.
Openstack is een open source omgeving voor het inrichten van clouds en vergelijkbaar met de producten van ondermeer VMWare. Openstack biedt heel veel mogelijkheden, maar loopt toch nog heel ver achter bij wat VMware kan bieden. Toepassing in een private cloud zie ik nog niet zo snel komen, wel in de public cloud, daar wordt het met name toegepast.Er liggen nog allerlei open eindjes voor een perfecte integratie in een private cloud omgeving.
De hang naar optische media ongaat mij een beetje.
@ Dear Henri,
Evident dat veranderingen ‘echt’ zijn. Niet alle veranderingen zijn dan ook hoegenaamd werkelijk veranderingen. Wat ik niet zo goed uit het stuk kan halen, vandaar mijn vraag, wat gaat dit voor ‘de klant’ betekenen.
Onder elkaar kunnen wij de vertaalslag wel maken en toelichten, maar wil je er constructief ’toe doen’… (