Cloud computing is een onomkeerbaar proces, een logisch gevolg van de ontwikkelingen in techniek waardoor we steeds meer (keuze)vrijheid krijgen. Maar het is vooral nog een valkuil waarbij de weg terug vaak afgesloten wordt door het gebrek aan standaardisatie. Want ook al zijn de bouwstenen van cloud computing, zoals virtualisatie en Internet, generiek, dat geldt (nog) niet voor de totaaloplossing.
Ramnath K. Chellappa, professor op het gebied van informatiesystemen, definieert cloud computing als volgt: 'Een computerparadigma waarbij de grenzen van de computer worden vastgesteld door het economische aspect, eerder dan de technische limieten.' Indien we deze definitie aanhouden, zijn huidige oplossingen helaas een vendor lock. Want een complete oplossing bestaat namelijk uit meer dan techniek omdat organisaties vaak getrouwd zijn met hun applicaties, processen en informatie die helemaal niet zo standaard zijn. Zo kost migreren van de ene database naar de andere of converteren van documenten bij wisselen van applicaties, platform of leverancier dan ook meer tijd en geld dan alleen wat techniek verplaatsen.
Gevangen door onverzettelijkheid
Bij cloud computing is het dus belangrijk is dat er ook gekeken wordt naar kwaliteitskenmerken als overzetbaarheid en onderhoudbaarheid van applicaties. Want interfaces aan de onderkant van de architectuur zijn niet alleen bepalend voor de functionele integratie maar ook voor de standaardisatie. Een kenmerk als overzetbaarheid negeren, zorgt er mede door het ontbreken van standaardisatie voor dat er vaak geen eenvoudige weg terug is en cloud computing dus een onomkeerbaar proces wordt. Iets wat we ook zien bij de service oriented architecture-oplossingen (soa) van de grote cloud- aanbieders waardoor het het dus moeilijk is om van Amazon naar Google en Microsoft of terug te migreren. We duwen ons zelf met cloud computing dus toch weer in de hoek.
Barsten of buigen
Toch is cloud computing een ontwikkeling die niet genegeerd kan worden omdat we steeds meer virtueel werken, informatie via Internet uitwisselen en ook steeds vaker onze eigen apparaten meenemen. We hebben de ict-architectuur dan ook allang geleden uitgebreid naar Internet om kosten te besparen, mobiliteit te vergroten en dienstverlening te verbeteren. Het paradigma van Chellappa zou dus eigenlijk veranderd moeten worden omdat het niet om de techniek gaat maar om de informatie. En die informatie consumeren we ook allang niet meer alleen op computers maar tegenwoordig ook op telefoons en tablets. Uiteindelijk bepalen waarde en gevoeligheid van de informatie de prijs omdat door beveiliging en beheer de kosten behoorlijk kunnen stijgen.
Gelijkenis is goed genoeg
Veel leveranciers positioneren hun bestaande oplossing, onder het mom van ‘het kwaakt als een eend, het waggelt als een eend en het zwemt als eend’ als cloud. Maar wanneer gekeken wordt naar de definitie van Chellappa blijkt een kwaliteitskenmerk als overzetbaarheid toch vaak niet aanwezig. Zonder deze opt-out is ook de wet van Dam symbolisch en zal een rit in de cloud al dan niet naar tevredenheid uitgezeten moeten worden. Natuurlijk kunnen we door blijven gaan om de ‘randverschijnselen’ te adresseren met service level agreements (sla's), certificeringen en betere authenticatie maar dat blijft pleisters plakken. Want daarmee komen we niet verder dan een private cloud-oplossing hetgeen niet meer is dan hosting 2.0.
Bepaal het antwoord
Om optimaal van de cloud te kunnen profiteren zullen dus eerst de applicaties aangepast moeten worden voor deze nieuwe delivery modellen. Iets wat we eerder gedaan hebben om bedrijfsprocessen te ‘enablen’ voor het web en zo de uitwisseling tussen klanten en partners goedkoper te maken. Wanneer we bijvoorbeeld een concept als Enterprise Service Bus op basis van open standaarden, waarin beveiliging en service levels geregeld zijn, naar de cloud uitbreiden, kan er optimaal geprofiteerd worden. ‘Bring Your Own Cloud’ zorgt er tenslotte voor dat alle controle en flexibiliteit behouden blijft. En een framewerk dat zowel intern als extern gehost kan worden zorgt dat techniek verplaatst kan worden en problemen met beveiliging en beheer opgelost worden.
Universele waarden
In plaats van systemen naar de cloud te brengen kunnen we dat beter doen met functionaliteit. Zeker nu we steeds meer informatie ontsluiten naar het Internet en ook meer voor tablet en smartphones, waarbij het verdienmodel van aanbieders lijkt te zitten in de val van een vendor lock. Hierdoor zit er niet alleen legacy in de architectuur maar vaak ook onnodige of juist te weinig redundancy. En juist dat laatste kan heel goed opgelost worden met bijvoorbeeld ‘Cloud Bursting’ als er zonder migratie transparant heen en weer geschakeld kan worden tussen de eigen en de externe cloud. Een Service Oriented Architectuur gebaseerd op open standaarden zoals al langer bestaande OASIS stack en W3C, die niet alleen bewezen zijn maar ook ondersteund worden door de grote techniek leveranciers, kunnen hierbij helpen.
Overbruggen of brug slaan
Natuurlijk zullen we eerst inzicht moeten hebben in de it-infrastructuur en -processen zodat mogelijkheden en wonderen van elkaar onderscheiden kunnen worden. Want weten wat er te koop is, is tenslotte maar de helft van het verhaal, je moet vooral weten hoe je het kunt gebruiken om er maximaal voordeel uit te kunnen halen. Het voordeel van een delivery model als cloud computing kunnen we naar onze hand zetten door niet vanuit de leverancier te denken maar door te kijken naar de vraag. Het wordt dus tijd om oplossingen te modelleren vanuit de business processen in plaats van dozen te verschuiven. Nu werknemers steeds vaker informatie consument worden op de eventueel zelf meegenomen tablets wordt het tijd voor rationalisatie om nieuwe eilanden te voorkomen.
Interessant en goed artikel, wat derhalve toch vragen oproept.
Het artikel lezende krijg ik de indruk dat het vooral gaat om het ontsluiten van informatie via de cloud. Deze indruk krijg ik omdat er een nadruk gelegd wordt op de mobile devices en applicaties. Het gaat in dat geval vaak over relatief kleine hoeveelheden data.
Bij de meeste artikelen over de cloud die ik tot op heden de revue heb zien passeren wordt vooral gekeken (terecht overigens) naar security en beschikbaarheid, maar over over responsetijden en bandbreedte lees ik maar weinig.
In hoeverre zijn cloud based oplossingen geschikt voor applicaties waarbij grote hoeveelheden data over en weer gaan (bij v. 1 GB of meer)?
Pavake,
De hoeveelheid data en de beschikbare bandbreedte dienen ook absoluut niet vergeten te worden.
Het is daarom ook van groot belang om een goed beeld te hebben van het verwachte dataverkeer. Aan de hand daar van kan je de juiste bandbreedte kiezen.
Ik gebruik vaak de onderstaande ( ietwat conservatieve ) waardes:
10 Mb 3.6 GB per uur
50 Mb 18 GB per uur
100 Mb 36 GB per uur
1000 Mb 360 GB per uur
* Breng eerst de changerate van de data per dag in kaart.
* Reken dit terug naar uur.
En met deze uitkomst kan je gaan kijken of het sowieso wel handig en financieel aantrekkelijk genoeg is om naar een Cloud ( IAAS/SAAS/PAAS) over te gaan.
Bandbreedte kan onwille van beperkte snelheid,beschikbaarheid, redundantie en kosten soms een zeer gemene factoor zijn die veel bedrijven nog wel eens vergeten.
Echter zijn er natuurlijk wel al verschillende WAN-optimalisatie technologieen beschikbaar die hier mogelijk in gezet kunnen worden.
Maar zoals ik al vaker hier heb geroepen: Meten is weten.
Als je je huiswerk vooraf goed doet dan scheelt dat een hoop “uitdagingen” en overziene kosten.
@Ruud
Met je statement:
Bandbreedte kan onwille van beperkte snelheid,beschikbaarheid, redundantie en kosten soms een zeer gemene factoor zijn die veel bedrijven nog wel eens vergeten.
Sla je wat mij betreft de spijker op z’n kop!
Zeker op het moment dat je gebruik gaat maken van publieke of gedeelde netwerken, zijn er weinig garanties meer daar waar het gaat om deze factoren.
Onlangs nog een leuk praktijkvoorbeeld hiervan gehad: een leverancier uit het buitenland moest een stukje software van 750 MB leveren. Dit duurde bijna 8 uur!
Wat bleek: de lokale IT afdeling van de leverancier had o.a. het FTP verkeer afgeknepen om te voorkomen dat men teveel ging up- en downloaden voor privégebruik op kantoor.
Meten is weten, maar als je niet weet wat je meet, kunnen er ook verkeerde keuzes gemaakt worden, zoals het afknijpen van FTP verkeer in dit voorbeeld. Immers, het ging om zakelijk gebruik, en niet om privégebruik zoals de beheerderd dacht
Niet alleen in Cloud maar ook bijvoorbeeld in uitwijkscenario’s wordt dit vaak vergeten.
Ondanks het in mijn ogen vrij simpel is af te vangen.
Breng je data verkeer in kaart. Reken dat terug naar dataverkeer per uur en per dag.
Dan heb je al een beter inzicht. Maar vergeet niet rekening te houden met je RPO (Recovery Point Objective) en RTO ( Recovery Time Objective )
Hoeveel data verlies kan je als organisatie aan en hoe snel moet de data in geval van een escalatie weer terug gezet worden.
Je wilt als organisatie natuurlijk niet je data op een uitwijklocatie of in data-cloud hebben staan als het een eeuwigheid duurt om het terug te zetten.
Op bandbreedte moet je nooit besparen. Hier moet je slim mee omgaan. Kies gewoon voor een burstable model. Je neemt de minimaal benodigde bandbreedte die je nodig hebt voor je dataverkeer af. Weet je dat niet dan meet je dat. En als je ingeval van een escalatie meer nodig hebt dan wordt via een burstable variant aan je aangeboden.
Breng natuurlijk wel vooraf de kosten van deze burstable variant goed in kaart. Voor een green field omgeving is dit iets lastiger. Maar ook hier kan je basis van best-practices aannames doen. Of je kan kiezen voor een Pay for use variant.
Maak vooraf duidelijke afspraken met je (Cloud/bandbreedte )leverancier. Je wilt natuurlijk niet voor verrassingen komen te staan op het moment dat je een escalatie hebt.
En last but not least transparantie in de kosten en SLA’s is natuurlijk geen overbodige luxe in dit scenario’s.
Allereerst, een goed en helder verhaal, Chapeau. Persoonlijk ben ik nog steeds niet overtuigd van de voordelen van Cloud. Een aantal elementen worden hier al naar voren gebracht namelijk data security en data integrity.
Zakelijk gezien wil ik de regie blijven houden over corporate data en niet afhankelijk zijn van derden en vierden partijen. De reden dat ik dit laatste aanhaal is de ondervinding dat er vaker zaken vertraging oplopen en mis kunnen gaan, in geval van. Ik ben overigens allerminst overtuigd of de opzet en onderhoud van een infrastructuur in een lifecycle nu veel duurder zou zijn dan cloud als oplossing.
Vanuit de organisatorische kant zie ik ook nog steeds heel veel haken en ogen waarbij alles maar in SLA’s vervatten lang niet afdoende is gebleken want je blijft tenslotte infrastructuren, als we het zo even bekijken, uit elkaar trekken wat technisch de nodige problemen weer kan opleveren.
In elk geval, dat zijn mijn eerste ervaringen geweest met cloud, is de transparantie van gebruik en het weergeven van verbruik en de aanhangende berekeningen een drama gebleken. Call me old fashion, maar ik voel me niet in het minst aangesproken wanneer mensen blijven roepen dat cloud uiteindelijk wel de kant op zal gaan omdat.
Een zeer grote tegen benoemde u zelf al. Er is, bij mijn weten, nog steeds geen strategie, zelfs geen pilot geweest, die mij een succesvolle return naar terug heeft laten zien. En als IT professional zijn dat nou net één van de eerste dingen die ik afgekaart zou willen zien.
Ik onderschrijf de stelling dat keuzes voor Cloud computing gebaseerd moeten zijn op de procesinrichting, de aard van de informatie, de informatiestromen, de wijze waarop je de informatie beschikbaar wilt stellen en hoe je de informatie wilt kunnen bewerken.
Dus dat je van te voren onderzoekt welk ‘computingmodel’ het best bij jouw organisatie past is duidelijk. Dat je daarvoor inzicht in en grip op je primaire processen en de zich daarin bewegende informatiestromen moet hebben ook. Vervolgens gaat het erom keuzes te maken. De belangrijkst is misschien wel de keuze om je data 100% te centraliseren – dus op 1 locatie. In mijn optiek werkt de Cloud alleen maar goed als dat het geval is. In die zin is het eigenlijk geen keuze maar eerder een voorwaarde. Met data op meerdere locaties maak je het jezelf alleen maar onnodig moeilijk, zowel qua beheer als beveiliging. De volgende keuze is dan die data uitsluitend via de Cloud toegankelijk te maken. En daaruit volgt de vraag of je de data in eigen huis onderbrengt, of gebruik maakt van een extern data center.
Als je jouw primaire processen en informatiestromen in beeld hebt moet de vraag worden beantwoord of je mobiel, dan wel lokaal over een geïnstalleerde applicatie (de functionaliteit) wilt kunnen beschikken (zodat je ook zonder verbinding je bestanden kunt bewerken), of alleen over de informatie (documenten, sheets etc.). Dit is mede afhankelijk van beleidskeuzes, alsook van de aard van het proces (als dat bijvoorbeeld externe bewerkingsactiviteiten kent in nog niet ontsloten omgevingen of in geval van zware grafische toepassingen).
Is het eerste het geval dan zal je dat met de huidige generatie tablets niet gaan redden en blijf je voor decentrale bestandsbewerking voorlopig nog even aangewezen op een laptop, of een (thuis)PC.
In het laatste geval kun je, naast laptop, netbook of PC, ook op je tablet of smartphone via de cloud naar je virtuele werkplek gaan en je bestanden presenteren op, of bewerken vanaf je device. Aan je applicaties hoef je weinig tot niets te doen, zolang je ze via een virtuele werkplek/desktop beschikbaar kunt stellen.
Beschikbaarheid van voldoende bandbreedte, zoals in de reacties ook al aangehaald, is cruciaal maar wellicht minder in volledige virtuele omgevingen dan in het geval dat er daadwerkelijk data door de Cloud gaat. Een essentieel verschil.
Zoals ik het zie hoeven we dus niet al te ingewikkeld te doen. Techniek en methodiek is leuk, maar het moet de wereld makkelijker maken, niet moeilijker.
Allen dank voor de reacties.
@paveke
Inderdaad niet genoemd maar denk dat Ruud al heel aardig aangeeft dat je bij een Cloud oplossing rekening moet houden met de weg er naar toe. Zonder snelle, goedkope en hoog beschikbare verbindingen hadden we ook geen cloud concept gehad.
@ruud
Ik ga uit van het principe meten is weten, gissen is missen.
@NumoQuest
Als we vanuit de informatie – corporate data – denken dan kunnen we deze ook classificeren. Data governance geeft hier verschillende modellen, standaarden en best practices in. Hoewel de vele incidenten anders doen geloven denk ik dat hier bij het ‘web enablen’ van bedrijfprocessen in ieder geval al een keer over nagedacht is. In dat geval zal ook een plan B, een terugkeer of andere oplossing bekend moeten zijn.
@hk
Een deel heb ik denk ik al beantwoord hierboven en ik ben het met je eens dat we het makkelijker moeten maken. ICT is tenslotte een middel en geen doel.
Door drukte kom ik er bijna niet meer toe om te reageren, terwijl dat wel belangrijk is. Vind de opbouw mooi met goede argumenten en wat aangehaalde bronnen, wil er wel wat op aanvullen.
De vaak aangehaalde vendor lock-in vind ik in cloud context niet terecht. Ten eerste is vendor lock-in iets wat niet speciaal is voor bijvoorbeeld cloud computing maar altijd geldt als je een dienst gaat gebruiken. De verschillen tussen een traditionele lock-in en een cloud provider lock-in zie ik namelijk niet.
Ik zie zelfs een trend waarin cloud providers juist mogelijkheden bieden om een dienst te beëindigen en data te kunnen exporteren. Zelf begin ik nagenoeg niet aan een tool als er geen goede export in zit. Zelfs Facebook biedt hier wat mogelijkheden.
Een punt wat vaak ten onrechte (ook in de reacties) wordt aangehaald is bandbreedte. Ook dit staat nagenoeg los van cloud computing. Als je als bedrijf meerdere vestigingen hebt en servers centraal zet in een datacenter heb je dezelfde uitdagingen. Hebben mijn inziens nauwelijks iets te maken met cloud computing.
Een implementatie van Dropbox is ook een adoptie van cloud computing. Bandbreedte speelt nagenoeg geen rol aangezien een kopie van de data ook on-premise staat. Niet om nu Dropbox aan te raden voor de enterprise, maar dat het bandbreedte vraagstuk los staat van cloud computing en dus niet als een valkuil voor cloud computing gezien moet worden.
@NumoQuest: “Zakelijk gezien wil ik de regie blijven houden over corporate data en niet afhankelijk zijn van derden en vierden partijen.”
Maar wat is je afhankelijkheid van je medewerkers? Regie is een heel rekbaar begrip en kan een vals gevoel van veiligheid geven.
Je kunt inderdaad de voordelen van cloud computing blijven negeren, daarmee onderga je vroeg of laat hetzelfde lot als de IT bedrijven die de cloud blijven negeren.
Cloud computing is onvermijdelijk zoals stroom uitbesteden ook onvermijdelijk was honderd jaar geleden. Wie de voordelen niet ziet kijkt niet goed. Ik kan er epistels over schrijven.
Er zijn ook nog genoeg nadelen, maar die worden steeds minder, een onvermijdelijke trend…
@Henri
Je stelt:
“Een punt wat vaak ten onrechte (ook in de reacties) wordt aangehaald is bandbreedte. Ook dit staat nagenoeg los van cloud computing. Als je als bedrijf meerdere vestigingen hebt en servers centraal zet in een datacenter heb je dezelfde uitdagingen. Hebben mijn inziens nauwelijks iets te maken met cloud computing.
In mijn ogen hangt e.e.a. af de implementatiekeuzes die je maakt bij de implementatie. Zelf heb ik met een datacentrum gewerkt, met gereserveerde bandbreedte van onze klantlocaties naar het datacentrum Er van uit gaande dat de providers kunnen leveren wat ze beloven, heb je dan een gegarandeerde bandbreedte.
Echter, verbindt je datacentrum en klant via het publieke netwerk, dan heb je volledig gelijk.
@ Henri,
Bandbreedte is in beide scenario’s die je schetst een aandachtspunt.
Ik deel je mening dat dit niet alleen bij Cloud Computing een uitdaging is. Dat is ook uit 1 van mijn reacties op dit artikel al te herleiden. Ik geef in deze reactie namelijk aan dat bandbreedte ook bij uitwijklocaties ( lees andere vestiging(en)) van groot belang is.
Als je je data /applicaties op een andere locatie ( vestiging /locatie )
buiten de deur hebt staan, dan komt nu eenmaal de bandbreedte discussie om de hoek kijken.
Ik ben het daarom niet geheel eens met je stelling dat dit nauwelijks iets te maken heeft met cloud computing. Ik zou het iets willen nuanceren. Om succesvol gebruik van cloud-diensten te kunnen maken heb je hoe je het went of keert nu eenmaal genoeg bandbreedte nodig.
Echter kom je deze uitdaging natuurlijk wel in meerdere ICT omgevingen/scenario’s tegen. Het is daarom van zeer groot belang om vooraf goed je huiswerk te doen. En meten is weten is daarom absoluut geen overbodige kreet. Breng eerst je (verwachte) dataverkeer in kaart of doe hier een valide inschatting.
Te veel bandbreedte levert je namelijk onnodige kosten op en te weinig bandbreedte levert je hoofdpijn op.