We weten het: de toekomst voor it is de cloud. Uiteenlopende en aantrekkelijke voordelen, van snel van start kunnen gaan met nieuwe it en ‘try before you buy’, tot disaster recovery van hoge kwaliteit en gemakkelijk aanbieden van mobiele applicaties. Dat is zelfs de (Europese) overheid opgevallen, denk aan het cloudbeleid dat onze eurocommissaris Neelie Kroes voorstaat.
Klinkt allemaal heel mooi, maar een voorwaarde is dan wel dat het fundament onder die cloud – het datacenter – zeer solide is. Concreet: een modern datacenter dat in hoge mate gevirtualiseerd kan worden, plus een flexibel ‘high performance’-netwerk. Alleen is de realiteit vaak anders.
Neem je het gemiddelde datacenter, dan zie je dat om de haverklap applicaties worden vervangen of dat er een nieuwe versie wordt geïnstalleerd vanwege nieuwe mogelijkheden of omdat er bugs zijn uitgehaald. Maar de hardware en de software die voor het datacenter wordt gebruikt, is bedoeld voor een periode van zo’n twintig jaar en wordt in tegenstelling tot de applicaties maar zelden up-to-date gebracht of vervangen. Dit verschijnsel zou je kunnen zien als een ‘datacenter lifecycle disconnect’.
Slagvaardig
Het punt is dat cloud computing verschillende architecturen vereist vanwege de verschillende manieren waarop applicaties bij gebruikers afgeleverd moeten worden. Dat afleveren zal meer en meer plaatsvinden buiten de traditionele lokale datacenters en via de externe (publieke) cloud gaan. Tegelijk zal de it-afdeling in meer of mindere mate gebruik willen maken van interne (private) clouds. Bijvoorbeeld als zij de automatisering van kernprocessen in eigen hand willen houden of om diensten sneller te kunnen aanbieden.
Dat uiteenlopende scala aan manieren van afleveren is vanzelfsprekend van invloed op de datapatronen en het netwerkverkeer. Prestaties en betrouwbaarheid staat voorop, maar wat betekent dat precies? Want het zal niet lang meer duren voordat zelfs 99,999 procent betrouwbaarheid niet meer voldoende is voor bedrijven die volledig afhankelijk zijn van hun datacenter en hun netwerk. Die ‘vijf keer negen' betrouwbaarheid komt neer op een downtime van iets meer dan vijf minuten per jaar. En dat kan dus al teveel zijn. Een infrastructuur die niet optimaal is, komt misschien niet verder dan vier keer negen (bijna een uur downtime) of zelfs drie keer negen (een hele werkdag downtime). En daarmee is de infrastructuur met recht de achilleshiel van het datacenter.
Grip op de problematiek
Maar dankzij nieuwe benaderingen van het ontwerpen van datacenters, zowel op hardware- als op softwaregebied, kunnen bedrijven toch grip krijgen op deze problematiek om zo het risico van de achilleshiel te minimaliseren. Deze benaderingen gaan uit van belangrijke vorderingen op het gebied van de automatisering van infrastructuurontwerp en van netwerkintelligentie. Met als resultaat dat op een slimmere manier ontwerpbeslissingen kunnen worden genomen en dat er veel gemakkelijker een balans kan worden gevonden tussen oplossingen voor de verschillende en dynamische behoeften van de business. Pas dan zullen ook de voordelen van de cloud ervaren worden.
Ook kunnen twee zaken, die van grote invloed zijn op cloud computing, maar nog wel eens naar de achtergrond verdwijnen, in het ontwerp worden meegenomen. Dat betreft allereerst het belang van het netwerk, dat alleen maar groter wordt door virtualisatie van desktop en kantooromgevingen. Dat betekent dat óók het interne bedrijfsnetwerk goed gepland, beheerd en geautomatiseerd moet worden. Ten tweede gaat het om een van de grote potentiële voordelen van cloud computing: mobiliteit van werknemers. ‘Draadloos' is echter gemakkelijker gezegd dan gedaan. Het realiseren van consistentie, beschikbaarheid en veiligheid is niet eenvoudig.
Intelligentie
En dan is er nog netwerkintelligentie. Die wordt vaak geassocieerd met ‘slimme' netwerkapparatuur. Maar er zijn inmiddels oplossingen die ook op de fysieke laag – lees patchpanels en kabels – de nodige intelligentie toevoegen. Voor het optimaal kunnen afleveren van applicaties en informatie maakt deze intelligentie het beheer stukken eenvoudiger, terwijl de gebruiker altijd kan rekenen op een consistente toegang tot wat hij voor zijn werk nodig heeft. Wie hierover meer wil weten een kijkje nemen op de site van imvisiunforum of zich aanmelden voor deze bijeenkomst:.
In een datacenter dat ook echt de voordelen van cloud computing moet opleveren moet die hierboven genoemde ‘datacenter lifecycle disconnect' zoveel mogelijk vermeden worden. Zoals gezegd zijn daar inmiddels ook de nodige tools voor. Belangrijker nog is het besef dat er goed over het ontwerp moet worden nagedacht. Dat voorkomt de achilleshiel in het datacenter.
Beste Jan,
Ik begrijp niets van een ‘eigen’ datacenter en jouw visie op de cloud. Als applicaties in de cloud draaien dan draaien ze niet meer in het datacenter en als alles uit de cloud komt heb je helemaal geen datacenter meer nodig, dat zit allemaal bij de cloud provider en die mag zich daarover bekommeren.
Als IT uit de cloud komt dan hoef je niet langer druk te maken over beheer, dat heet dan contractmanagement en of de netwerk nu wel of niet intelligent zijn, dat is niet de zorg van contractmanagement.
Betrouwbaarheid en beschikbaarheid spreek je af in een contract.
Als je niet bij een cloud provider werkt is dat wel een lekker gevoel, toch Jan?
We leven inderdaad in een services-omgeving, maar de cloud bestaat uiteindelijk uit vele datacenters… of je er eigenaar van bent of gebruik van maakt is voor mijn betoog slechts een klein verschil.