It werd in het verleden voornamelijk gedreven door hardware. In de hardware-laag was nu eenmaal de intelligentie geplaatst en de software moest maar zorgen dat het compatibel was met de hardwareketens van een it-infrastructuur. Die tijd is inmiddels voorbij. Koning Hardware is inmiddels op leeftijd geraakt en van zijn troon gestoten door Keizer Software.
De transitie van hardware gedreven it naar software gedreven it is een logisch gevolg van de steeds snellere adoptie van de cloud. Software gedreven, ook wel software defined genoemd, zal de komende jaren hoog eindigen in de buzz-woorden top tien. Na cloud is dit een ‘hype’ aan het worden. Een logisch gevolg, aangezien beiden onomstotelijk met elkaar verbonden zijn. Zonder de flexibiliteit van software kom je natuurlijk nooit in die mooie wolken.
De laatste jaren zien we dat het eigenaarschap zich verplaatst heeft van it naar de business. Organisaties innoveren inmiddels zo snel dat de it dit maar moeilijk kan bijhouden. It is gedreven om tegen zo laag mogelijke kosten de infrastructuur in stand te houden. De business heeft zijn focus op compliancy en een time-to-market-benadering. Waar de business verschuift naar een it-as-a-service (ITaaS) model, heeft it te maken met ontwikkelingen van nieuwe rollen waarbij automation, orchestration, service levels en on-demand belangrijker worden. Tijd voor verandering dus. Tijd voor software!
Wat is het nu precies
Bij een software defined data center (sddc) is de gehele infrastructuur gebaseerd op software. Maar wat houdt dit nu precies in? Software defined zorgt ervoor dat alle hardware en technologie vanuit één centrale management- en regielaag inzichtelijk is, aangepast en beheerd kan worden. Alles wordt één logisch geheel.
Het maakt bij software defined niet meer uit waar je je hardware vandaan haalt. Dit levert natuurlijk extra flexibiliteit op en zorgt ervoor dat de welbekende hardware ‘vendor lock-in’ aan het verdwijnen is. Echter mogen we niet vergeten dat onze data uiteindelijk op hardware landt. In zekere zin creëren we hier een platform waar we simpelweg een andere discussie gaan voeren over hardware.
Wat is er nu allemaal al software defined?
Al meer dan een decennium lang virtualiseren we servers in datacenters. Bij server virtualisatie wordt er een software laag, de hypervisor, geplaatst tussen de fysieke server en het besturingssysteem. Dit heeft als doel de efficiëntie, flexibiliteit en het beheer van de server resources te verbeteren. Tot voor kort was virtualisatie beperkt tot servers. Inmiddels behoren ook netwerk- en storage-virtualisatie tot de softwarelaag. Deze lagen vormen gezamenlijk het software defined data center (sddc).
Software defined storage
Storage virtualisatie maakt het mogelijk om virtuele machines te verplaatsen naar verschillende geografische locaties met weinig tot geen onderbreking. Als er een probleem ontstaat op één locatie, dan kunnen deze virtuele machines volledig automatisch of door een storage administrator verplaatst worden. Software defined storage (sds) heeft het potentieel om de beschikbaarheid naar een ander niveau te brengen door steeds beter bestand te zijn tegen uitval of calamiteiten.
Vandaag de dag is storage virtualisatie uitgegroeid tot een nieuwe standaard binnen datacenter-omgevingen. Storage op commodity servers welke vanuit één logische management stack aangesproken wordt. Of software defined storage waarbij een virtualisatielaag op de bestaande storage infrastructuur wordt aangebracht. Zodat het management van de traditionele storage silo’s afneemt en mogelijke migratieproblematiek niet meer aan de orde is, omdat de ‘storage dozen’ met weinig tot geen inspanning vervangen kunnen worden.
Software defined networking
Netwerk virtualisatie is al vele jaren beschikbaar. Met virtuele lan’s (vlan’s) worden workloads gesegmenteerd op basis van de business unit, type toepassing, data gevoeligheid en prestatiekenmerken. Netwerkbeheer was altijd complex en vaak ook niet flexibel en dynamisch genoeg.
Software defined networking (sdn) brengt een virtualisatielaag over alle fysieke servers aan. Ook hier zal net als bij software defined storage alles als één logisch geheel acteren. Hierdoor kun je bandbreedte aan elkaar vastplakken en netwerkpoorten snel en flexibel naar boven of naar beneden schalen. Migraties worden zo een stuk makkelijker, omdat je de intelligentie onderbrengt in de software laag in plaats van in de hardware laag.
Van ‘die-hard’ naar softie en wat nu
Wat gaat de toekomst ons brengen? Dat blijft altijd lastig in te schatten. Helaas kunnen we nog niet in de toekomst kijken en beschikken we alleen in films over een glazen bol. Wij verwachten dat Software defined een steeds grotere rol gaat spelen. Dit wordt veelal gedreven door de adoptie van de cloud. Steeds meer bedrijven willen de eigenschappen van cloud terugzien in hun eigen it-omgeving.
Flexibiliteit, schaalbaarheid, inzicht, kostenverlaging en dynamiek worden steeds belangrijker voor organisaties. Maar hoe pak je dit nu goed aan? Je kan dit in een ‘big bang’ scenario doen. Ideaal voor nieuwe (applicatie) omgevingen. Ook past een gefaseerde aanpak goed. Zelf kiezen waar, hoe en op welke schaalgrootte je begint heeft zo nu en dan ook zijn voordelen. It moet vooral innoveren!
Roy Mikes, senior partner systems engineer bij EMC
(Deze bijdrage is geschreven in samenwerking met Ruud Mulder)
Wie is Roy Mikes
Roy Mikes is sinds 2014 werkzaam bij EMC en heeft meer dan vijftien jaar brede kennis en ervaring in de it met focus op virtualisatie, storage en cloud architecturen. Vanuit zijn rol als senior partner systems engineer ligt zijn focus op Technical Sales Enablement en is hij verantwoordelijk voor pre-sales activiteiten en go-to-market strategieën binnen de channel. Mikes streeft naar de meest loyale en zelfvoorzienende EMC Partner SE community in de industrie.
@ruud dat bedoel ik de beheertools voor provisioning, monitoring, reporting etc. Het grappige aan deze tools (vmware, openstack, zijn er meer?) aansluitingen bieden maar aws. Iig openstack maar dacht ware ook
De ideale opstap naar een hybride Cloud? Maar eenvoudig is het niet en eens met reza het is niet eenvoudig, eigenlijk intimiderend ingewikkeld. ITaas suggereert bijna it met losse handen maar misschien is ict kennis nog steeds belangrijk.
@henri @ruud ben ik even blij met een auto zonder computer op pad te zijn. Eens dat ict een belangrijke rol speelt maar om nu ieder bedrijf een ict bedrijf te noemen. Uiteindelijk gaat er ook om dat de Business zijn werk uit kan voeren. Dat is iets wat wel geleerd heb als intermediair tussen business en de systemen. Dan liggen de prioriteiten net even anders.
@ruud met isolatie bedoel ik de isolatie binnen één os (linux) en de basis voor docker. Als alternatief voor virtualisatie
Heb een hoop regen en wind gehad dus daar zal het wel vandaan komen. Misschien komt de zon nu ook jullie kant op.
Will, de grote innovatie hierin is dat dit automatische en op afstand gebeurd! Chip tuning is op 1 device 🙂 En het is maar 1 voorbeeld, zelfs de manier van de deur openen was verbeterd.
Nu weet ik ook wel dat het heel eng is, want als alles software is, hoe zit het dan met veiligheid en bugs? De Tesla is wel iets meer dan vier wielen en een batterij, het verandert mogelijk de gehele industrie. En dit is heel on-topic als we de titel van deze opinie aanhalen 🙂
Henri,
Goede toevoeging.
Het zal je maar gebeuren dat je “Smart” car gehacked wordt.
Ik kwam enige tijd geleden onderstaand artikel tegen.
http://money.cnn.com/2015/02/09/technology/security/car-hack/
Dit gaat in mijn optiek nog wel een punt van aandacht worden.
Ik denk dat ik mijn connected drive optie maar voorlopig nog even niet aanzet 😉
Mja – gehacked worden om vervolgens meegenomen te worden is een ding.
Maar wat als dan de auto op afstand bestuurd kan worden?
Of zonder hack en gewoon een foutje van de fabrikant:
Terwijl je met 150 km/u over de snelweg scheurt doet de fabrikant per ongeluk ff een update van het motor management systeem…
Na afloop wordt er een “reboot” uitgevoerd!
Brrr – ik moet er niet aan denken…
Will: Als ik mag kiezen, kies ik toch echt voor de connected car, en even later de zelfsturende auto. Ik geloof zelfs dat je over een jaar of vijftien niet eens een verzekering meer krijgt als je zelf wilt rijden.
Overigens nog een leuk weetje in het kader van software grijpt de macht: In het begin van het computer tijdperk, grofweg tijdens en na de 2e wereldoorlog was hardware echt een mannending en waren de vrouwen programmeurs. Het programmeren van de hardware werd vooral aan vrouwen overgelaten en werd zelfs een beetje op neer gekeken. Meer hierover kun je lezen in The Inventors van Walter Isaacson.
In de zoektocht naar de Cloud had ik zo graag iets gelezen over wat het meer is dan meer maakt dan een leveringsmodel dat uiteraard aansluit bij al deze nieuwe mogelijkheden mogelijk gemaakt door virtualisatie software defined en (opkomend) isolatie. Ok, afrekenbare resources uit de digitale kraan, nieuwe mogelijkheden voor applicatie ontwikkeling.
Mijn waardering is zeer groot voor het filosoferen over elektrische auto met een computer en het is ook mooi dat iedereen weer vrienden is. Maar ook uit de vorige discussie wordt me nog steeds niet duidelijk waar het om gaat en de verschillen zijn.
Ik denk dat die beheer software daarin essentieel is. Hiermee zijn al die flexibele resources waar dan ook te adresseren en te benutten. Omdat ik een Cloud leek ben ben ik dus benieuwd wat voor meer beschikbare tools om dat te doen. Ik heb er nu twee gezien (naast ongetwijfeld de ‘eigene’ van de paar grote cloudboeren). Al zal Microsoft ongetwijfeld ook iets hebben. Maar wat is er meer?
Ik ben benieuwd..
Een knorrige groet.
@Henri:
We zullen zien wat de toekomst gaat brengen. Maar aangezien er maar weinigen zijn die in een trein of vliegtuig durven te stappen zonder machinist en piloot verwacht ik dat het nog enige tijd gaat duren – als het al gebeurd. Ook al omdat het verregaande aanpassingen vergt van het wegennet.
@(knorrige?) Louis: hieronder mijn 5 centen.
Tja – er is geen eenduidig antwoord. Dit zijn nou typisch van die dingen die zich, in (data) communicatie termen, afspelen op de hogere OSI lagen:
Laag 8: geloof – i.e. Henri als cloud ninja,
Laag 9: politiek – i.e. Ewout zijn prachtige volzinnen rondom niemand-doet-het-goed en
Laag 10: geld – i.e. Reza en zijn drang naar 100% sluitende business cases met dito onderbouwing.
Om maar eens even de spreekwoordelijke knuppel in het hoederhok te gooien… 😉
Maar in a nutshell: cloud is een levering+financieringsmodel met daarbinnen een of andere vorm van betalen-naar-gebruik. Dat gebruik kan bestaan uit applicaties, vormen van computing resources, vormen van API’s, etc. Kortom, je kan het zo gek niet bedenken of er is wel een cloud dienst voor met een vorm van verrekening naar gebruik. Soms gekoppeld aan een soort van vastrecht tarief in de vorm van (bijvoorbeeld) een minimum afname of staffelkortingen.
Moest ik het in eigen woorden uitleggen, dan is voor veel bedrijven het grootste voordeel van “de cloud” de perceptie dat ze kunnen intappen op schaalgrootte voordeel zonder dat ze daar zelf voor te hoeven investeren. Zo kunnen ze meerjarige contracten afsluiten voor de afname van de nieuwste “producten” zonder dat dat als schuld op de balans komt te staan (i.e. OPEX versus CAPEX). Wat het altijd weer goed doet bij banken en aandeelhouders… 🙂
Voor particulieren speelt er iets vergelijkbaars. Afhankelijk van het “product” kun je als particulier hetzelfde doen zonder dat daar een BKR registratie tegenover komt te staan. Dus je kan (bijvoorbeeld) helemaal los gaan op multimedia diensten van een KPN, Ziggo, Spotify, iTunes, etc.
Zelfs als je daar tientallen tot honderden euro’s per maand aan spendeert begint er niemand te piepen. Tenminste, zolang je niet voor een langere, aaneengesloten periode “maand overhoud op het eind van je salaris” is er niets aan de hand… 🙂
Cloud aanbieders zullen alles-op-alles zetten om die perceptie te vast te houden en te onderbouwn. Want ze zijn erachter gekomen dat afnemers, gemeten over meerdere jaren, bereid zijn substantieel meer geld uit te geven in de vorm van kortlopende huurovereenkomsten die steeds stilzwijgend verlengd worden.
Terug naar de techniek.
De Haarlemmer olie van dat alles is de zogenaamde orchestrator software; soms ook aangeduid met de term IT process automation of de afkorting ITPA. De grote jongens hebben daar hun eigen spullen voor. Zo heeft Microsoft zijn System Center spulletjes en heeft VMware zijn vCenter dingetjes.
Zoek je het in de FOSS wereld, dan is daar bijvoorbeeld een Puppet; sinds enige tijd zelfs ondersteund door ServiceNow. Maar daarnaast zie ik ook termen (producten?) als OpenStack en JIRA regelmatig voorbij komen. Alhoewel ik daar moeilijk kan inschatten of dat nou echt producten zijn vergelijkbaar met een System Center of vCenter.
Of dat het meer een architectuur/denkraam is met op een aantal deelgebieden een invulling (met een schuin oog kijkend naar Red Hat).
Hoe dan ook, marketing wise worden dit soort producten vaak in een adem genoemd met “iets” rondom SD-en-dan-nog-wat (en v.v.).
In dat kader heb ik zelf een paar jaar terug enige tijd gewerkt met eyeShare van ayehu. Dat was (en is nog steeds) een product waarbij je taken kunt automatiseren met wat pleur-en-sleur werk in een GUI.
Maar het “ding” leent zich ook prima om met allerhande scripts te werken. Ook zijn er verschillende integraties waarmee je zaken bij elkaar kunt klikken om bijvoorbeeld het op- en afschakelen van VM’s te automatiseren.
Dit soort producten is vooral handig voor het automatiseren van IT werk op het moment dat je te maken hebt met meerdere sourcing varianten verdeeld over meerdere partijen.
Zo – voor nu waren dat mijn 5 centen. Wie neemt het stokje over?
🙂
@will je vergeet nog osi 11, met de nar die een spiegel voorhoudt. The wonderful wonderful cat.
Dat financiele is niet mijn afdeling maar iets kiezen, clouddiensten, alleen op grond van kosten op korte termijn lijkt me niet zo slim en kijken naar de technische implicaties is verstandig. Goedkoop duurkoop. Helaas wel iets wat des it’s is, beslissen zonder kennis en de gevolgen overziend.
Over de techniek, eens dat die orchestrators die je noemt zijn cruciaal en waarmee de nieuwe mogelijkheden vm sd ontsloten worden. Openstack valt ook in die orchestrator afdeling waar je ook vmware vsphere en ms system cemter dan onder vallen.
Heb je eenmaal de machines uitgerold dan komt een tool als puppet (chef, nagios?) om de hoek en configureer en rol je de software en services uit.
Jira ken ik niet goed, dacht dat een incidenten registratie systeem was zo herinner ik me van een vorig werk. Zo een systeem waar vol goede moed mee begonnen wordt maar dan toch verzandt
En de tool eyeshare zegt me niets maar ben benieuwd. Het dilemma in ict land: Wat moet ik kiezen?
Overigen heb ik wel weer van mendix gehoord….
@Louis – van achter naar voren:
Over “het dillema in ICT land” – de meeste IT organisaties nemen er zich de tijd niet voor. Maar eigenlijk zou je bij de inzet van nieuwe technologie het beheer een tijdje handmatig moeten doen. Danwel beperken tot de inzet van de tools die standaard (i.e. zonder meerprijs) door een vendor meegeleverd wordt.
Daardoor “leer” je welke taken in aanmerking komen voor een stukje automatisering. Dat kan dan gaan om repeterende taken, of taken die een grote impact hebben met een dito foutkans bij manuele uitvoering, etc.
Enkel die ervaring maakt dat je een duidelijk beeld krijgt van de eisen en wensen waaraan om het even welke tool moet voldoen.
Doe je dit niet, dan wordt je een speelbal van de vendors en hun Gartner-achtige verhalen (om maar eens wat te noemen). Immers, alle producten hebben zo hun sterke en minder sterke kanten. Allemaal die vendors zullen proberen je visie zodanig te bespelen dat je hun sterke punten als must-haves gaat opnemen in je eisen en wensen lijstje.
In de hoop en verwachting dat je uiteindelijk die spulletjes gaat aanschaffen waarvan de meeste features in het must-have lijstje staan.
Met als afsluiting de contract onderhandelingen waarbij een inkoper nog eens een keer met een fijnmazige kam door die must-have lijst gaat en je vervolgens de vraag stelt of het niet goedkoper kan… 😉
=====
Over “JIRA ken ik niet goed” – zonder nou gehinderd te zijn door al te veel ter zake doende, actuele kennis zie ik in JIRA de linking pin tussen je “orchestrator” software en je agile IT(IL?) processen. Een van de functies van “orchestrator” software is een vorm van geautomatiseerd “continuous improvement” – iets wat in veel IT organisaties op het verlanglijstje staat onder het motto “daar zouden we wat mee moeten doen”.
Wat ik met eyeshare eens gedaan heb is log files van applicaties scannen op fouten. Op het moment dat er binnen een bepaalde groep logfiles en binnen een bepaalde periode meer dan x fouten zaten, dan werd er door eyeshare binnen JIRA een incident aangemaakt. Als er binnen een bepaalde periode meer dan y incidenten van een bepaalde categorie aangemaakt waren (in dit voorbeeld gerelateerd aan fouten in log-files), dan volgde er automatisch een aanmaak van een JIRA project.
Dat project werd vervolgens in een agile vorm uitgevoerd (heette in die tijd anders want agile was toen nog niet “uitgevonden”).
De uitkomst van dat project kon betrekking hebben op iets simpels als het aanpassen van de drempel waardes. Maar kon net zo goed betrekking hebben op het installeren van een of andere patch.
Maar hoe dan ook, er zat een grotendeels geautomatiseerd proces achter waarbij omwille van een stukje governance en continuïteit, elke stap/activiteit gedocumenteerd was.
=====
Over “dat financiële is niet mijn afdeling” – een veelgehoorde stelling van menig I(C)T-er. Maar denk je niet dat het dat eigenlijk wel zou moeten zijn als onderdeel van de (C)?
Met andere woorden, is dat niet juist de kern van *het* probleem? Dat we als IT-ers (dus zonder de C!) niet of nauwelijks in staat zijn de inzet van een stuk technologie te vertalen en kwantificeren naar een bepaald, concreet bedrijfsresultaat met bijbehorende risico analyse? Of dan toch in ieder geval een soort van roadmap met termijn waarop…?
🙂