De oude droom van ICT als nutsmiddel wordt realiteit. Wees niet langer bezig met details als opslagruimte, processorcapaciteit, bandbreedte en andere randvoorwaarden voor ICT-benutting. Composable Infrastructure automatiseert de diverse componenten en geeft regie op hoog niveau.
ICT-infrastructuren beleven gouden tijden die tegelijkertijd zware tijden zijn. De mogelijkheden, maar ook de complexiteit en vereisten zijn enorm toegenomen. Organisaties kunnen zich onderscheiden met goed en vooral flexibel gebruik van ICT-middelen. Bestaande systemen – legacy of juist heritage – kunnen echter een hindernis zijn. De ingebruikname van nieuwe applicaties kan namelijk stuiten op belemerringen of vertragingen doordat eerst ICT-middelen moeten worden gereserveerd en toebedeeld. Daarnaast kan capaciteitsverandering voor reeds draaiende applicaties op eenzelfde inflexibiliteit stuiten.
Software bepaalt de hardware
De trend van software-defined infrastructure doet al veel om deze pijn weg te nemen. Dankzij virtualisatie valt veel van onderliggende hardware en ook software af te schermen waardoor ICT-middelen op een hoger niveau zijn te beheren. Dit brengt niet alleen ICT-gebruik naar een hogere abstractie, het geeft ook flexibiliteit en daarmee snelheid. Na de trends van virtualisatie en converged infrastructure volgen hyperconverged en daarop voortbouwend Composable Infrastructure.
Converged IT slechtte al de muren tussen de silo’s van verschillende hardwaresystemen: voor opslag, rekenkracht (compute) en netwerkcapaciteit. Hyperconverged legt hier een software-laag overheen die definieert wat de onderliggende hardware doet. Composable Infrastructure voegt daar dan nog een automatiseringsslag en intelligente aanpak aan toe. De ICT-capaciteit van storage, compute en networking zijn daarbij als één geheel samengebracht en worden intelligent ingedeeld voor verschillende soorten van gebruik.
Alles als services
Applicatievereisten en business processen bepalen dan flexibel de ICT-inzet, die dan niet langer gebonden is aan vooraf ingestelde configuraties. Het sleutelwoord hierbij is services: beheerders hoeven zich niet langer te buigen over de individuele benodigdheden om een applicatie te draaien. Een softwaredeveloper kan de vereisten aangeven met policies en service-profielen, waarna een beheerder nog wensen en grenzen voor het beoogde gebruik kunnen toevoegen.
Daarna wordt de benodigde infrastructuur automatisch ‘gecomponeerd’. De benodigde ICT-middelen worden geselecteerd en ingezet, waarbij ook eventuele keuzes worden gemaakt of het op fysieke hardware, in virtuele omgevingen of juist in containers draait. Vervolgens valt zo’n compositie natuurlijk ook te herzien: voor uitbreiding (naar meer of juist minder vermogen) maar ook voor uitschakeling wanneer een toepassing niet meer nodig is. Voorheen bezet infrastructuurvermogen wordt dan weer vrijgegeven voor gebruik.
Programmeerbare infrastructuur
HPE, de enterprise-tak van het in tweeën gesplitste HP, heeft voor Composable Infrastructure zijn Synergy-architectuur ontwikkeld. Dit omvat storage, compute en networking in één enkel chassis waarbij HPE’s beheersoftware OneView de daadwerkelijk inzet ervan bestuurt. Open API’s (application programming interfaces) zorgen voor abstrahering van de diverse infrastructuurelementen zodat de eigenschappen daarvan inzichtelijk zijn.
Slimme functies als autodiscovery, software-intelligentie en niet-vastliggende verzamelingen van de aanwezige ICT-middelen zorgen ervoor dat deze infrastructuur flexibel wordt ingezet. De hele infrastructuur wordt zo ‘programmeerbaar’ en ICT transformeert tot een nutsmiddel als bijvoorbeeld water; de gebruikende organisatie hoeft zich niet bezig te houden met het achterliggende leidingwerk, naast transport, opslag en waterzuivering.
CEO Meg Whitman van HPE noemt Synergy de grootste prestatie die haar bedrijf de afgelopen tien jaar heeft neergezet. Het R&D-voorwerk (research & development) heeft jaren in beslag genomen en forse investeringen vereist. Het is dan ook het fundament voor enterprise-ICT van de toekomst. HPE maakt hiermee namelijk niet alleen ICT-infrastructuren ‘componeerbaar’, maar overbrugt ook de kloof tussen de oude en de nieuwe wereld van ICT.
Oude en nieuwe ICT-wereld overbruggen
De oude en de nieuwe ICT-werelden zijn respectievelijk die van bestaande systemen, op basis van eerder ontworpen architecturen, en die van snelle ontwikkelingen als agile, DevOps en andere moderne trends. Onderzoeksbureau Gartner heeft het overbruggen van deze twee werelden ‘bimodal IT’ gedoopt: aanpassing aan nieuwe platformen met tegelijkertijd ondersteuning en benutting van traditionele systemen.
De nieuwe ICT-wereld is meer dan slechts een nieuwe werkwijze voor automatisering. Het houdt een nieuwe werkwijze voor organisaties als geheel in. Zij kunnen ICT inzetten als onderscheidend en zelf business-creëerend middel. Onderzoeksbureau IDC omschrijft dit als de slimme inzet van ICT voor mobiele apparaten, cloud services, Big Data analytics en social networks. Het noemt dit het derde platform, dat volgt op de gescheiden systemen van mainframes (het eerste platform) en client/server-systemen (het tweede platform).
Ideeën snel realiseren
HPE voorziet deze platformenevolutie van de betiteling de ‘Idee Economie’, omdat ICT nu in staat is om ideeën snel te realiseren zodat organisaties vlot nieuwe producten en diensten kunnen inzetten om daar ook direct aan te kunnen verdienen. ICT is dan niet langer slechts een automatisering van bestaande interne bedrijfsprocessen, maar faciliteert nieuwe processen en geheel nieuwe activiteiten.
Het derde platform, close encounters of the third kind. Na het nieuwe werken worden systemen ook vernieuwd. Torenhoge software infrastructure stack bovenop je blote metaal. Aan een kant van de bimodal IT dan, de andere is voor de UWV-natives. Heeft Gartner bedacht om die werelden te overbruggen. De digital natives kunnen wel een kraan op en en dicht draaien. Wordt het allemaal nu moeilijker of eenvoudiger met al die abstractie ? Geen flauw idee economie.
Halverwege de publicatie haak ik al af. IT ICt is wat mij betreft, gewoon een strategisch vehikel die de onderneming, de organisatie, bij staat in Besparen. IT ICT doet alleen dat. Met welke kleur, welk smaakje, welk naampje, dat is dan alleen nog maar ondergeschikte discussie, een keus.
Wanneer je stelt dat je prachtig over het bestaande, tijd, moeite en kosten steekt om er nog eens een laag overheen te leggen en te roepen dat dat de boel goedkoper maakt? Dan is dat gewoon een illusie. Immers, de kosten van om het even welke (dw)aas (P)aas (H)aas zullen uiteindelijk ook moeten worden opgebracht en het gevaar is dan stelselmatig groter dat je steeds meer mensen en partijen nodig zult hebben het te onderhouden.
Er bestaat een heel eenvoudige wetmatigheid die zegt,’Less is More…’ Ik vertaal dat al meer dan twintig jaar naar ‘Simpel, Simpeler, Simpelst’. De rest van het verhaal is dan feitelijk volkomen commercieel. Uiteraard heb ik met het commerciële stuk geen moeite, maar wel als je pretendeert dat het nog gestroomlijnder zou worden en…. hopelijk… nog goedkoper. Want het enige doel, vanuit mijn doelstelling, is gewoon dat automatiseren Winst moet opleveren met minder.
Minder mensen, minder materiaal, minder inspanning. Dat is namelijk de universele drijfveer hierachter. De stelling dat de kosten voor de baat uit zouden gaan is bij automatiseren met IT ICT zeer betrekkelijk. Door het exacte karakter kun je juist heel goed meer bereiken met veel minder. Als IT manager heb je wat dit alles betreft allang niet meer genoeg aan de grote trouwe blauwe puppie-ogen van de leverancier maar wil je in control zijn.
En laat nu juist dat aspect steeds vaker en onterecht tot ‘bottleneck’ worden verheven.
Ik blijf het zeggen, ‘Back to Basic’ en Hou Het Simpel.
Ik ben het eens met René. Daarnaast wordt optimalisatie helemaal een weggedrukt door het te abstract te maken. De programmeur kan direct resources claimen en gebruikt meerdere malen onnodig zware functies, lussen en logica in zijn programmatuur. Wat resulteert dat er een zwaar erg duur virtueel serverpark afgehuurd wordt, wat op een goedkope huis-tuin-en-keuken desktop afgehandeld zou kunnen worden.
Het is misschien een beetje gechargeerd doem denken, maar ik wil gewoon een vraagteken zetten bij de euforische toon van het verhaal binnen het artikel.
Marketingverhaal.
@ Dino
Al dat hijgerig hypen over ‘nieuw’, is gewoon commerciële voor zaken die namelijk al lang bestaan maar waarvan men nu plots roept dat dat ‘nieuwe’ wereld of realiteit zouden betreffen. Het is niets meer en minder dan bestaande zaken in een ander vormpje duwen, likje verf erover, ander naamkaartje en ‘hoppa’, nieuw.
Gooien met tal van ‘gelardeerd’ en vooral ‘nietszeggende’ kreten maken zaken er a: niet helderder op en b: ongeloofwaardiger. Laten twee laatsgenoemden nu net dingen zijn waarop de wereld niet echt zit te wachten stel ik altijd. Maar he, wie ben ik ;O)
Misschien komt het verhaal voort uit:
Vroeger-Toen moest je een SAN kopen. En als het ding vol zat, en je had geluk, dan kon je er een bak bij hangen voor meer schijven. Er kwam echter een moment dat het ding vol zat. Je moest een nieuwe, veel duurdere kopen die meer schijven kon hebben. Liefst twee. Voor als er één uitvalt.
Qua CPU en geheugen speelt dat al een tijdje niet meer. Virtualisatie lagen zorgen ervoor dat je capaciteit verdeelt over nodes.
Google eens op “Een private cluster voor een prikkie”
Daar wordt het concept uitgelegd wat hier bedoelt wordt.
Wat ik vooral tenenkrommend vind is: Als ik een virtuele server aanmaak moet ik nadenken over CPU, geheugen en storage. Het komt niet meer zo nauw, ik kan het aanpassen, maar allemaal oversized servers kost ook geld.
Het stuk begint met: “Wees niet langer bezig met details als opslagruimte, processorcapaciteit, bandbreedte en andere randvoorwaarden voor ICT-benutting”
Maar iemand moet toch dat cluster bouwen??
p.s. bandbreedte hoef je niet te plannen, dat gebruik je gewoon. Je plant je stroomverbruik toch ook niet?
@ Ronald Otto
Als je een infrastructuur opzet is het wel degelijk handig na te denken over bandbreedte en wat je nodig hebt aan energie, geloof me.
@RENÉ CIVILE
Ik bedoel het anders maar je hebt gelijk.
Het maakt het punt alleen nog sterker. Iemand moet erover nadenken 🙂
Ook als je een clouddienst afneemt hoef JIJ niet na te denken over de CPU belasting, maar iemand wel. En als je kennis hebt en tijd en middelen is zelf regelen altijd goedkoper.
Je kan 3x 100 mailaccounts huren, 3 mailservers en op ieder 100 accounts op maken, 3 VPS-en en daar een mailserver op draaien, een cluster nemen, daarop VPS-en met daarop een mailserver draaien, een datacenter bouwen, daarin clusters zetten met daarop VPS-en etc etc etc.
@ Ronald Otto
Eens! Alleen, ik ben zelf wel geneigd die vraag te stellen bij kennismaking overigens. Aan de blikken heb je namelijk meteen je antwoord of het de goede partij is …. of niet…
Met nieuwe kreten worden oude principes her-uitgevonden. In 1980 kon ik al op een mainframe onder hypervisor VM/CMS meerdere supervisors aansturen, zekfstandig werkende systemen, en mogelijkheid printers, tapes, te sharen, en cpu ruimte aanpassen. Alleen is er een gigantische evolutie door de micro-electronica. Voor internet was er Locan, een Philips industrieel netwerk om aan machines te koppelen, en was ik aan het zoeken om PLC sturingen van productieinrichtingen aan te sturen van uit de mainframe. Ik kan moeilijk onder in indruk komen van het vooral marketing geblaat, met vergelijkingen nieuw met toestanden die nooit bestonden, vaak met haren er bij gesleurd