Wanneer een datacenter uitvalt, kost dat gemiddeld bijna vierduizend euro per minuut. Een uitval duurt gemiddeld ruim anderhalf uur. De kosten lopen dan op naar 350.000 euro. Dit blijkt uit een gezamenlijk onderzoek van het Amerikaanse Ponemon Institute en Emerson Network Power, leverancier van energiesystemen voor datacenters. Samen namen ze 41 grote datacenters onder de loep.
Uit het onderzoek ‘Understanding the Cost of Data Center Downtime: An Analysis of the Financial Impact of Infrastructure Vulnerability' blijkt dat datacentermanagers en cto's wel goed door hebben dat een uitval tot hoge kosten en weglopende klanten leidt, maar dat ze niet altijd weten dat er indirecte kosten bijkomen wanneer servers, netwerken en dataopslagsystemen uitvallen. Een uitval kan onder andere leiden tot het verlies van bedrijfskritische data, verminderde arbeidsproductiviteit, het wegvallen van vertrouwen van klanten en aandeelhouders en juridische stappen van benadeelden.
7700 euro per minuut
Volgens het onderzoek duurt een uitval gemiddeld negentig minuten. Dat kost 350.000 euro, ofwel bijna vierduizend euro per minuut. De kosten kunnen hoger worden voor klanten en bedrijven die geheel afhankelijk zijn van een datacenter: ruim 7700 euro per minuut, aldus het onderzoek.
Een significante hoeveelheid van deze down-time heeft te maken met het menselijk handelen. Oftewel het proces dat er voor moet zorgen dat je zo snel mogelijk weer “up” bent. met name het Incident Management process en de daar aan verbonden escalatie routes. Niet alleen dat deze processen er zijn, maar dat iedere stakeholder in het proces zich ook bewust is van zijn rol in het proces. Regelmatig oefenen (gaming) om iedereen scherp te houden is geen overbodige luxe. zeker niet als je met iedere minuut 4000,- euro kan verdienen….
Het datacenter is meer dan ooit het kloppend hart geworden van elke organisatie waar de meest bedrijfskritische informatie en processen ( applicaties) worden opgeslagen en bewaakt. De hele ontwikkeling mbt de invulling van private, hybrid en public clouds om apps en informatie overal ter beschikking te hebben vindt zijn basis in het datacenter. Fabrics ( voor SAN en LAN) vormen de hoeksteen van de Datacenter infrastructuur om een geoptimaliseerde en volledig gevirtualiseerde omgeving te bouwen waarbij nonstop, schaalbaarheid en beheersbaarheid centraal staan.
Als klant is het in deze tijd meer dan noodzakelijk om te controleren (audit) of de door het datacenter opgegeven specificaties/beloften ook daadwerkelijk kloppen. Draaien ze inderdaad op 2 actieve feeds of is de 2e feed een optie. Waar blussen ze mee, sprinklers? Lijkt me niet handig voor cruciale systemen. Hoe is uitwijk geregeld.
Wordt de noodstroom aan duurtesten onderworpen of alleen aan en uit gezet? Kortom er zijn nog veel cowboys in datacenter land en dat merk je pas als het je “overkomt”.Maar dan is het meestal te laat en is de (reputatie) schade vele mate groten als het zogenaamde kostenvoordeel.
Het controleren van SLA’s is redelijk nuttig. Bedrijven nemen van allerlei dure IT services af, maar weet men of dit in de werkelijkheid ook echt zo uitgevoerd wordt. Redundancy van voor geconfigureerde hardware is vaak nog de meest snelle recovery optie in plaats van een dure afgesproken reactiesnelheid binnen een SLA.
Bottom line is het 9 van de 10 keer een kwestie van geld
Alle bovengenoemde suggesties bevatten een kern van waarheid, maar kennen ook een prijskaartje.
Als de klant hier dat geld niet voor over heeft, wordt het toch lastig aan de verwachtingen te voldoen en worden achteraf krokodillentranen gehuild.
Overigens wil ik nog wel even ingaan op de reactie waarin incedent management genoemd wordt. Processen in place is belangrijk, maar nog belangrijker is mensen die op een pragmatische manier hier mee om kunnen gaan. Een escallatiepad is op papier iets heel moois, maar als manager A op vakantie is, en je moet om 3 uur ’s nachts manager B uit de kroeg of zijn bed bellen, dan moet de “operator” de mogelijkheid hebben zelf een keuze te maken op basis van zijn kennis, kunde en inzicht (vereist uiteraard goed opgeleide operators).
Bovenstaand artikel werpt in relatie tot een aantal andere recente artikelen over datacenters op Computable.nl een interessant licht op de ontwikkeling van datacenterdiensten.
Verwijzend naar teksten over SLA’s bij uitbesteding en het gebrek aan certificeringen bij veel hosting-bedrijven ontstaat hier een discrepantie tussen het besef dat uitval ‘killing’ is voor afnemers en aanbieders van datacenterdiensten, en de daadwerkelijke acties die hierop worden ondernomen. De vraag is of aanbieders zich deze houding nog langer kunnen veroorloven. Zeker wanneer de afnemer, zoals een van onze klanten, meer dan 635 dollar per seconde omzet, oftewel 38.000 dollar per minuut (20 miljard per jaar). Die hebben in een 90 minuten downtime een gederfde omzet van 90*60*600 oftewel meer dan 3,2 miljoen dollar… In dat geval is een datacenter eigenlijk geen datacenter.
Natuurlijk brengen het behalen van certificeringen en het opstellen en naleven van SLA’s (op maat) de nodige kosten met zich mee. Daar staat tegenover dat partijen die dit goed voor elkaar hebben veel aantrekkelijker worden voor organisaties die 24/7 beschikbaarheid eisen en zelf niet de tijd en de kosten willen besteden om de gehele dienstenstack te auditen. Door te certificeren neemt een hosting provider deze zorg uit handen van de klant en borgt hij een deel van zijn SLA. Daarvoor is de klant zeker bereid te betalen. Het resulteert immers in een betere transparantie van het (diensten)niveau van de hosting-leverancier.
Apart hè, dat de mensen die zo’n datacentre weer in de lucht moeten brengen dan zo weinig gewaardeerd worden door m.n. overheidsinstanties.