Toen de public cloud op de markt kwam werd plotseling alles wat geclassificeerd was als ‘legacy technologie’ gezien als achterhaald. Legacy stond voor het verleden. Het werd een soort scheldwoord en bedrijven werden aangespoord om de cloud volledig te omarmen….. of achter te blijven op de rest en zeker te zijn van een langzame dood…..
Begrijp me niet verkeerd: de public cloud is een enorme vooruitgang binnen de it en het biedt grote voordelen. De mogelijkheid om real-time computerkracht te krijgen en alleen te betalen voor wat je daadwerkelijk gebruikt is een geweldige ontwikkeling geweest. Zeker voor ontwikkelaars heeft de public cloud snelle innovatie mogelijk gemaakt.
Sommige bedrijven hebben in de afgelopen jaren geprobeerd al hun workloads naar de public cloud te verplaatsen. Zij hebben ontdekt dat de public cloud, net als alle andere technologieën, grote voordelen, maar helaas ook beperkingen heeft. Deze organisaties zijn erachter gekomen dat het principe van one-size-fits-all niet altijd op gaat: sommige workloads, zoals de website van een bloemist die pieken heeft op feestdagen, werken prima in de public cloud. Terwijl andere sites, met bijvoorbeeld veel zware en bedrijfskritische databases, het beste draaien op dedicated ‘bare-metal’ hardware. Weer andere toepassingen, met bijvoorbeeld goed in te schatten belasting, zoals veel back-office computerfuncties, zijn het meest geschikt voor de private cloud. Zowel on-premise als gehost in een datacenter van een cloud-provider.
Die ontdekking heeft ervoor gezorgd dat veel bedrijven op zoek gingen naar een (cloud)omgeving waarmee elke workload met de hoogste prestaties en tegen de laagste kosten kan draaien. Ze willen de vrijheid om een cloud te draaien waar en hoe zij dat willen, met de mix van diensten die het beste bij hun wensen past. En dat is precies waar de hybride cloud uitkomst biedt!
Ultieme combinatie
Een hybride cloud sluit perfect aan bij de specifieke behoeften van de klant. Het geeft de gebruiker de ultieme combinatie van de public cloud, private cloud en dedicated ‘bare metal’. Steeds meer organisaties zetten een hybride model in en profiteren daarmee van optimale beveiliging, prestaties, uptime en kostenstructuur. Een interessante ‘aanvulling’ op alleen het gebruik van de public cloud.
Legacy-technologie is dus nog steeds belangrijk en moet nog vaak cruciaal werk verrichten. Denk aan dedicated servers die voor veel workloads een prestatie- en betrouwbaarheidsniveau bieden waaraan de gevirtualiseerde, multi-tenant public cloud nog zeker niet kan tippen. De nieuwe behoefte aan speciale hardware wordt aangevoerd door grote i/o intensieve applicaties, grotendeels databases. Deze legacy-technologie is een belangrijk onderdeel van menig it-infrastructuur en analisten zoals James Staten van Forrester geloven dat dit de komende decennia zo zal blijven. Een grote database proberen te draaien in de cloud is vragen om problemen. Maar zet die database op een dedicated server in een omgeving waarin de public cloud bijgeschakeld kan worden wanneer dat nodig is. Dat klinkt toch veel efficiënter?
Werken met big data
Een gebied waar een hybride cloud met name voor de hand ligt is bij het werken met big data. Het is niet mogelijk om big data die binnen het bedrijf is gegenereerd op een efficiënte manier naar de cloud te verplaatsen, althans op dit moment nog niet. Een hybride cloud biedt de mogelijkheid om big data op een manier te gebruiken die het meest zinvol is. De hybride cloud biedt bedrijven het beste van twee werelden. Het brengt de public en private cloud samen met dedicated ‘bare metal’ servers om de beste oplossing te bieden voor specifieke workloads. Het is niet nodig om de applicatie af te stemmen op de beperkingen en kenmerken van de specifieke cloud, in plaats daarvan stem je de cloud af op jouw wensen.
De hybride cloud biedt ook keuzevrijheid voor de locatie. Het is mogelijk om de toepassing waar dan ook uit te voeren: bij je eigen hosting- of cloud-leverancier, in je eigen datacenter of in de faciliteiten van een derde partij. Dat maakt verder allemaal niet uit.
De early adopters en analisten van vijf jaar geleden hadden gelijk, toen ze zeiden dat organisaties hun i zouden verplaatsen naar de public cloud. Maar ze hebben toch iets te vroeg gejuicht door te zeggen dat alles naar de public cloud verplaats moest worden.
Een hybride cloud moet niet worden gezien als een brug naar het verleden. Ondanks dat je gebruik gaat of blijft maken van wat sommigen ‘legacy’ noemen. Dit model is juist een brug naar de toekomst. Het is nu mogelijk legacy-technologieën te gebruiken op manieren die krachtiger zijn dan ooit – zoals bij het werken met big data – terwijl de public cloud wordt gebruikt voor die workloads die er optimaal kunnen draaien.
Dedicated hardware is blijvend. Geen vervelende erfenis, maar keiharde realiteit. En het zal zo blijven voor de komende jaren, vooral omdat i/o-intensieve applicaties en big data het tech-landschap blijven domineren. Een one-size-fits-all cloud is zeker niet de brug naar de toekomst. Een hybride cloud is dat wel. Best of both worlds!!
@ Reza,
Next Generation Cloud leveranciers betekent niet dat dit nu nog niet te krijgen is. Het is waar dat de meeste publieke cloud leveranciers een boel van deze functionaliteit nu niet hebben. Of ze hebben het wel maar vaak kun je alleen als je bijvoorbeeld met veel kennis en ervaring gebruik maakt van alle diensten en producten een hoge uptime garantie behalen. Diensten en producten waarvoor dan weer los betaald dient te worden uiteraard.
Er zijn er echter cloud providers die dit wel aanbieden, als pure public cloud propositie, inbegrepen in de prijs.
Of de cloud volwassen is, is een andere vraag. Het is zeker nog niet waar het zou moeten zijn maar de ontwikkelingen gaan razend snel, ter illustratie mijn werkgever investeert dit jaar 100 miljoen dollar in cloud innovatie.
@ Ewout
Wat betreft prestaties garanties op alle lagen, ja binnen een multitenant omgeving zal het altijd mogelijk zijn dat andere gebruikers beslag leggen op resources waar wellicht een andere klant ook gebruik van wilde maken. Dat is niet nieuws, toen dataverbindingen duur waren was bandbreedte de bottleneck, voor virtualisatie was compute een belangrijke bottleneck. En de kwaliteit van het netwerk, switching en routing is vaak voor eindgebruikers een onzichtbare bottleneck geweest. Door gebruik te maken van Enterprise grade management en monitoring software kan een provider echter prima monitoren of een klant de prestaties krijgt waar hij recht op heeft en of deze bottlenecks ontstaan, waarna ingegrepen kan worden.
Koppel dit aan een netwerk centric approach en je krijgt ook binnen de cloud een Enterprise ready omgeving waarbij prestaties horen die je daar van mag verwachten.
Ik heb in de afgelopen 15 jaar maar heel weinig contracten gezien waarbij over alle lagen van de keten een echte SLA werd afgegeven, met boete clausule. Zelfs wanneer alles dedicated voor klanten wordt gebouwd durven maar weinig leveranciers dit aan of wegen de kosten niet op tegen de extra prestatie garanties.
Een van de weinige providers waarvan ik weet dat zij dit aanbieden en waarbij ze een 100% uptime garantie gegeven kan worden zet daarvoor dedicated FTE’s in per klant, een team dat zich compleet focust op die klant en het beheer, prima oplossing maar moeilijk schaalbaar (ze hebben lang een klanten-stop gehad) en niet goedkoop (onder de 100.000 euro per maand hoef je niet bij ze aan te kloppen).
Wellicht belangrijker nog, als klanten hun eigen omgeving bouwen en beheren dan kunnen ze deze garanties vaak helemaal niet geven, simpel weg omdat ze niet voldoende kennis in huis hebben om dit intern op te tuigen. Boetes bij uitval of verstoringen zijn dan vaak hellemaal niet mogelijk. Alleen bij zeer grote multinationals kom je dit wel tegen. De cloud kan dan al snel een verbetering opleveren t.o.v de huidige situatie.
Mijn punt is nu juist dat Next Generation Cloud Providers dit oplossen voor hun (Enterprise) klanten. Wellicht nog niet met garanties op alle levels ( Ik zou de provider niet weten die 100% beschikbaarheid van het internet kan garanderen) maar wel moet zeer hoge uptime /beschikbaarheid garanties en standaard de prestaties die het mogelijk maken Enterprise workloads naar de cloud te verhuizen. Dit doen ze ondermeer door gebruik te maken van exact de zelfde architectuur waarmee ook binnen Enterprise omgevingen wordt gewerkt.
Mijn werkgever gaat bijvoorbeeld de eigen ERP omgeving (15K FTE, 6 Miljard dollar omzet) verhuizen naar onze eigen public cloud.
Is Maatwerk nog nodig, ja zeker zal dit soms nodig zijn, maar zo wel voor de klant en voor de provider is het beter van niet. Alles dat voor een enkele klant gebouwd wordt is kwetsbaarder, kent meer potentiële SPOC’s (vaak veroorzaakt door gebrek aan financiële middelen) en dus gevoeliger voor verstoringen of prestatie problemen.
Netwerk garanties zie je idd weinig, maar het netwerk is zeer bepalend voor het functioneren van een cloud omgeving. Gevirtualiseerde netwerken zoals die gebruikelijk zijn kunnen niet op tegen de snelheid van een echt l2 netwerk, met als gevolg slechtere prestaties van alle lagen.
dat wordt dus opgelost als je in de cloud wel ‘echte’ kan afnemen. Op alle lagen zal je dan verbetering van de prestaties zien.
@Vincent
Dat een (niet bij naam genoemde) aanbieder tegen weliswaar een hoge prijs een garantie biedt waar blijkens de klantenstop vraag naar is geeft al aan dat kritisch nog steeds een ander segment is dan de cloud.
Inderdaad worden SLA’s meestal niet voor elke individuele laag opgesteld maar dienen deze wel vertaald te worden naar SLO’s om zodoende enige garanties te kunnen geven.
Een stukje proactief capaciteitsmanagement wat bij virtualisatie en delen dus complexer wordt, zie mijn eerste reactie over ‘advanced jobscheduling’ want uiteindelijk gaat het gewoon om de workload welke je mischien geheel, gedeeltelijk of helemaal niet kun verclouden. Uit verkeerde zuinigheid (korte termijn kostenbesparing) worden namelijk ook nog weleens workloads verkloot.
P.S.
€100 miljoen investeren in cloud innovatie is weliswaar veel geld maar geeft volgens mij nog geen garantie voor succes.
Dit op zich boeiende opiniestuk lijkt opgesteld volgens het schema:
these: legacy
antithese: public cloud
synthese: hybride cloud.
Het tegengestelde van legacy is echter niet public cloud maar… een gelaagde architectuur op basis van service-oriëntatie. Zolang legacy niet op z’n minst voor een deel gemigreerd is naar SOA valt er met cloud computing wat dat betreft niet veel winst te behalen.
@Jack
Graag zou ik eerst een omschrijving wil hebben van legacy. Steeds vaker hangt hier een negatieve connotatie aan terwijl veel (kritische) infrastructuren en services hier afhankelijk van zijn.
En als ik me niet vergis is SOA een begrip dat ook binnen de ‘legacy’ wereld bekend is, ik hoorde hier meer dan 15 jaar geleden al van. De gelaagdheid lijkt me ook niet het probleem omdat toen ook de ESB populair werd die als een ‘pre-cloud broker’ functioneerde voor de ontsluiting.
Want toen werden de PC servers als goedkope resources gezien, welke nu veelal gevirtualiseerd zijn omdat hardware krachtiger werd dan de software. Een uitdaging is dan ook om die eerdere oplossingen aan te passen aan de mogelijkheden van de cloud.
Bedenkend dat in sommige ‘legacy’ systemen meer dan 30 jaar aan investeringen zit lijkt het me een vorm van kapitaal vernietiging om alles maar weg te gooien nu de cloud populair is. Tel daarbij op de onvolwassenheid van de cloud en het wordt duidelijk dat hybride de beste optie is.
Ewout,
Als SOA al bekend was binnen de ‘legacy’ wereld, dan toch bij de eerste pogingen om legacy te migreren dan wel opnieuw te bouwen onder architectuur. In de loop der tijd is wel steeds duidelijker geworden dat herbouw volgens een big-bang strategie niet werkt; vandaar dat steeds vaker gekozen wordt voor een geleidelijke migratie, waarbij delen van de legacy blijven functioneren naast en in combinatie met het reeds gemigreerde deel. Zoals onlangs nog weer fraai verwoord door Arie Timmerman in zijn uitstekende opiniestuk “Maak legacy klaar voor de toekomst”.
Legacy staat voor monoliete, in beton gegoten, silo-applicaties, die gekenmerkt worden door redundantie en verwevenheid van data, functionaliteit, flow en presentatie. In een reactie op eerder genoemde opiniestuk heb ik deze kenmerken van legacy wat verder uitgewerkt. De negatieve connotatie van legacy is dus gewoon terecht; het zijn verouderde applicaties die steeds slechter scoren op punten als flexibiliteit, aanpasbaarheid, betrouwbaarheid, stabiliteit, snelheid, complexiteit, transparantie, gebruikersvriendelijkheid, etc, etc,.
Dit alles kun je beslist niet van alle legacy zeggen; er is ook goed gebouwde legacy, die nog steeds goed scoort ten aanzien van betrouwbaarheid, stabiliteit en snelheid! Maar ook in dat geval blijft flexibiliteit, de aanpasbaarheid aan veranderende bedrijfsomstandigheden, het heikele punt.
Je stelt SOA nog net niet gelijk aan legacy-technologie, maar je associatie met legacy is voor mij wel de zoveelste aanwijzing dat SOA haar belofte van flexibiliteitsverhoging en complexiteitsreductie nog steeds niet heeft waargemaakt. Je associatie met legacy is echter wel terecht, voor zover SOA tot op heden vooral is toegepast in combinatie met BPM.
Als alternatief voor het toepassen van de flowcharts van BPM heb ik in de reactie op eerder genoemd opiniestuk het gebruik van “beslissingstabellen in combinatie met kunstmatig intelligente, dus doelgerichte redeneertechnieken” voorgesteld.
Hierbij ben ik zeker ook geinspireerd door het, snel op internet terug te vinden kennisdocument “De vaste waarden van de systeemontwikkeling” (PDF, 39 blz.) van emiritus-hoogleraar M. Verhelst.
In de eerste plaats zijn voorkeur voor het gebruik van beslissingstabellen boven flowcharts. In de tweede plaats zijn pleidooi voor “ruimtelijk denken in plaats van sequentieel denken”. Met dit pleidooi sluit hij – mijns inziens – naadloos aan bij de ontologie van de Duitse filosoof Heidegger.
Kortom, het wetenschappelijke procesdenken loopt op haar einde; we moeten naar een filosofisch kennis- en zijnsdenken.
SOA (dus zonder BPM) is een must; cloud-computing vervolgens een optie.
Je opmerking dat de ESB functioneert als een ‘pre-cloud broker’ is dus de spijker op z’n kop, omdat het mijn stelling onderschrijft dat legacy eerst gemigreerd moet worden naar SOA om desgewenst optimaal gebruik te kunnen maken van cloud-computing. En opnieuw ben ik het dan met je eens dat “hybride de beste optie is”.
@Reza Cloud is een platform wat nog aan het evolueren is. Cloud providers werken hard aan de ontwikkeling van hun productportfolio en het beter beveiligen van producten en diensten. Daarnaast wordt ook continu gekeken hoe de performance kan worden verbeterd. Het feit dat er al een ruime hoeveelheid high-end enterprise workloads in de cloud draait, geeft wel al aan dat het een volwassen platform is. Het is juist belangrijk in te zien dat public cloud geen ‘one size fits all’ model is en niet alleen voordeliger is bij veel pieken en dalen. Of een situatie het beste aansluit bij het inzetten van een dedicated of hybrid of cloud, hangt van veel factoren af en daarom is het juist de perceptie en communicatie die nog verder vorm moeten krijgen.
Angelo,
“Cloud is een platform wat nog aan het evolueren is”, exact!
Ik heb altijd gezegd dat cloud de toekomst is maar dit verschijnsel moet nog verder ontwikkeld worden om waar te kunnen maken wat er nu door cloudproviders beweerd of toegezegd wordt.
Hierna rijst net zoals bij het woningmarkt, de vraag: wanneer zou ik instappen?
Ik zou zeggen: NIET NU!