Colocatie-datacenters (colo’s) zitten in een lastige positie. Enerzijds zijn zij succesvol doordat meer it-afdelingen, saas-bedrijven en hosting-partijen de weg naar hen vinden. Anderzijds beseft de overheid dat datacenters veel energie gebruiken en spreekt zij de colo’s hierop aan. Dat de it-apparatuur in hun faciliteiten geen eigendom van de colo’s is, speelt nauwelijks een rol. Moeten colo’s zich daarom steeds meer gaan opstellen als energiebedrijven die hun klanten helpen energie te besparen? Als het aan colocatie-specialist Bytesnet ligt, wel. Het bedrijf lanceerde onlangs Smartpower & Performance, een service om op basis van de Server Idle Coefficient (SIC) klanten te helpen minder elektriciteit te gebruiken.
Het klinkt wellicht vreemd, maar servers in datacenters verbruiken bijna altijd evenveel elektriciteit, ongeacht of zij volledig worden belast met it-workloads of nauwelijks applicaties ‘draaien’. Dat was een van de conclusies van het Leap-project van de Amsterdam Economic Board (AEB). Met het project wil de AEB de energietransitie in de Amsterdamse regio helpen door ruimte op het elektriciteitsnetwerk te creëren via besparingen. Een van de branches die de organisatie hierbij in het vizier heeft, is de datacentersector.
Energiebesparing
Leap laat zien dat in veel datacenters een substantiële energiebesparing mogelijk is. Er zou een vermindering met tien tot vijftien 15 procent haalbaar zijn. Belangrijke hulpmiddelen hierbij zijn power management en virtualisatie. Het project toont ook aan dat veel servers een groot deel van de tijd niets doen. Hoewel de belasting van servers een sinus-achtige trend in de tijd vormt, is het energieverbruik in veel datacenters gedurende de dag en de week een mooie constante lijn. Dat is vreemd en in feite niet acceptabel. We zouden het ook niet accepteren als onze auto evenveel brandstof verbruikt, of hij nu stilstaat met de motor uit, of dat we met 120 kilometer per uur over de snelweg rijden.
Een van de centrale vragen van Leap was of we een indicator kunnen ontwikkelen voor de mate waarin een server met it-workloads wordt belast? Hiervoor werden de Server Idle Coefficient (SIC) en de Data center Idle Coefficient (DcIC) ontwikkeld. De SIC is een ratio of KPI die de belasting van de processor van de server aangeeft in relatie tot de totale belastbaarheid van die server. Daarmee vormt de SIC niet alleen een maat voor de feitelijke belasting van de server, maar geeft het ook een indicatie van de energiebesparing die bij deze server mogelijk is indien het systeem beter wordt belast. De DcIC is als het ware de optelsom van de SIC van alle servers die in het datacenter zijn opgesteld.
Virtualisatie
Als we de SIC meten, kunnen we ook kijken hoe we die coëfficiënt verbeteren. Daarvoor bestaan minstens twee mogelijkheden: virtualisatie en power management.
De eerste mogelijkheid om de SIC te verbeteren, is via virtualisatie. Nederlandse it-afdelingen behoorden tot de early adopters van virtualisatie. Uit het Leap-project blijkt echter dat veel it-afdelingen tot nu toe vooral “een beetje” virtualiseren. Het aantal virtuele machines (vm’s) per server valt de onderzoekers tegen, waardoor de systeembelasting van de onderzochte servers vaak ook tegenvalt. In veel gevallen worden servers slechts voor een klein deel belast. Daar zit volgens de onderzoekers dan ook een eerste mogelijkheid om de SIC en daarmee dus het energiegebruik te verbeteren. Door meer vm’s te plaatsen per systeem, zijn natuurlijk minder servers nodig voor hetzelfde aantal vm’s en applicaties.
We kunnen zelfs nog verder gaan. Door minder maar zwaardere servers te kiezen en het aantal vm’s op deze systemen te optimaliseren, is wellicht nog meer energiebesparing mogelijk. Dit potentieel verschilt van geval tot geval. Door echter als nulmeting de SIC van de bestaande servers vast te stellen en na de optimalisatieslag opnieuw de SIC te meten, zien we dat het serverpark een gunstigere SIC heeft gekregen, met alle energiebesparing van dien. Vanuit Leap verscheen het document Happy Flow (pdf), met tips over hoe je virtualisatie slim aanpakt.
Power management
Er is nog meer mogelijk, meldt colo-specialist Bytesnet. Als een server regelmatig voor kortere of langere periodes ‘idle’ is, ofwel geen it-workload draait, is het verstandig om het energieverbruik tijdens deze onbelaste periodes te minimaliseren. Dit kan via power management, een oude techniek (in de jaren negentig zelfs al gestandaardiseerd) die nog steeds vaak niet of incorrect wordt toegepast. Meestal is de reden angst voor slechtere performance van de server en/of een lagere beschikbaarheid. Uit meerdere onderzoek blijkt dat beide zorgen ongegrond zijn. Een processorkern die “in slaap” is, kun je zo snel wekken dat dit geen invloed heeft op prestaties of beschikbaarheid.
Bovendien vormt de toepassing van power management onderdeel van de lijst met erkende maatregelen die onderdeel uitmaakt van de Wet Milieubeheer. Daarin staat dat datacenters met een jaarlijks elektriciteitsverbruik van 50.000 kWh of meer, alle milieubeschermende maatregelen moeten nemen die zich in vijf jaar terugverdienen. Power management is daar één van. In de praktijk wordt power management echter weinig toegepast. De omgevingsdiensten die toezichthouden op de Wet Milieubeheer, zijn nu begonnen met daadwerkelijk toezicht op deze maatregelen.
Power management moet niet alleen worden toegepast, maar ook op de juist wijze. Je kunt het regeling op hardware-niveau of via het besturingssysteem. Per geval zul je de beste aanpak moeten vastgesteld, maar vaak levert het instellen via het besturingssysteem de beste resultaten op. Hierbij moet je voorkomen dat op beide niveaus tegengestelde power management-instellingen worden gekozen. Via het meten van de SIC kun je ook hier weer vaststellen in welke mate deze aanpak succes heeft.
Colocaties
Hoe zit dit bij colocatie-datacenters die niet de eigenaar zijn van de it-hardware die zij huisvesten? De overheid ziet het datacenter als de partij die op het energieverbruik moet worden aangesproken. Hoe ga je daar als colo het beste mee om? En wat betekent dit voor de eigenaren van de it-apparatuur die in een colo-faciliteit staat opgesteld?
Colo’s spelen in dit spel al jaren een rol. Zij kopen immers de elektriciteit in die hun klanten gebruiken. Deze verkopen zij bovendien met een marge door aan hun klanten. Daar zit een mooi aanknopingspunt, bedacht Bytesnet zich. Want als colo kunnen zij niet alleen hun klanten informeren over de hoeveelheid elektriciteit die zij gebruiken, maar wellicht ook helpen om dit verbruik terug te dringen.
Dit doet Bytesnet via een nieuw dienst die Smartpower & Performance heet. Samen met AI Ops-specialist Tuuring ontwikkelden ze een dashboard dat ze integreren in de klantenportals van de colo. Hierin zien deze klanten onder andere hun energieverbruik, evenals de Server Idle Coefficient. De data die nodig zijn voor de berekening van de SIC, worden standaard door elk merk en type server gegenereerd. Deze gegevens worden vanuit de betrokken servers gepusht naar het platform van Tuuring en zichtbaar gemaakt in de portal. Afnemers van ruimte in de datacenters van Bytesnet kunnen ten aanzien van de power management-instellingen bovendien ondersteuning verkrijgen van adviesbureau Certios.
Standaardisering en certificering
Tijdens het onderzoek van Leap werd al duidelijk dat het cruciaal is dat de manier waarop je de SIC meet, goed is gestandaardiseerd. We willen appels met appels vergelijken en geen appels en peren.
Daarom is de stichting Save Energy Foundation in het leven geroepen. Deze stichting is eigenaar van de merknamen SIC en DcIC, zodat niet iedereen zomaar kan zeggen dat zij een Server Idle Coefficient hebben vastgesteld.
De organisatie stelde ook de methode die moet worden toegepast om tot goed vergelijkbare SIC-metingen te komen, vast. Ze certificeert bovendien de partijen die de SIC en de DcIC willen toepassen. Bytesnet en Tuuring behoren tot de eerste partijen die daadwerkelijk zijn gecertificeerd.
“Het klinkt wellicht vreemd, maar servers in datacenters verbruiken bijna altijd evenveel elektriciteit, ongeacht of zij volledig worden belast met it-workloads of nauwelijks applicaties draaien.”
Ja, dat klinkt vreemd omdat het niet overeenkomt met testen van bijvoorbeeld:
https://www.spec.org/power_ssj2008/results/
Stichting nummer zoveel die een eigen certificering commercieel exploiteert lijkt me niet echt de bedoeling als we kijken naar de bomen in dit bos.
Het is tegenwoordig bijna ondoenlijk om een niet- of licht-belaste server evenveel stroom te laten gebruiken als een volbelaste server. Dan moet je het haast moedwillig zo ingesteld hebben. Het probleem zit juist bij de zwaarbelaste servers. Die staan vrijwel altijd voor 90, 95 procent alleen maar onzin uit te voeren. Oorzaken zijn slecht gebouwde applicaties, verbatim ingestelde log-services, hangende of verweesde service processen, remote desktop applaties die browsers draaien (die tot hun vreugde 384 GB ram aantreffen of (nog erger) rdp servertjes (al of niet virtueel) die voor 15 man nog steeds maar 4GB RAM hebben (waarvan 3.1GB helaas voor het systeem). Of die duizenden servertjes die voor kantoortoepassingen VDI zijn gaan draaien terwijl daarvoor RDP toch zo ‘lekker makkelijk’ qua deployment was.
Rob,
Er is meer dan Windows, een besturingssysteem wat niet bekend stond om de efficiëntie door niet alleen de grafische overhead als ik wat vergelijkingen maak met alternatieven. Gelukkig dat Microsoft dit ook begrepen heeft en de mogelijkheid biedt om modulair te werken, zet uit wat je niet gebruikt is ook vanuit een beveiligingsaspect verstandig.
Aangaande het cliënt-server model kan ik weinig over nut en noodzaak van de workload zelf zeggen maar een centralisatie biedt wel een paar voordelen. Zo kun je net als vroeger met mainframe in de nachtelijke uren batch verwerkingen doen om alles weer fris en up-to-date te hebben voor alle online raadplegingen tijdens kantooruren. Met een beetje fantasie vul je het winkeltje zelf in Rob want de wereld is groter dan een Windows desktop als we naar het cliënt-server model kijken.
Aangaande SOA-paradigma van de rapportgenerators ben ik misschien wat te positief over software-defined als het om PowerBI on-steroïds gaat maar volgens mij zijn die datawarehouses hierin best wel handig. En I/O technisch ben ik natuurlijk gekke Henkie op dit platform maar de tijd dat 70% van het dataverkeer om porno ging is voorbij, de webcam wordt nu meer gebruikt voor video vergaderen.
Ik weet het, teveel proza vanuit het veld maar je referentiekader komt niet overeen met de consolidaties waar geheugen niet de kosten zijn als ik kijk naar de licentiemodellen. En zolang de boekhouder baas is gaat er weinig veranderen als we kijken naar de keuzen die gemaakt worden.
Beschikbaarheid van veel geheugen leidt normaal tot minder cpu belasting en lagere licentiekosten. In het door mij aangehaalde geval werkt het precies andersom. Ik heb niet de illusie dat alleen RDP/VDI/Windows slecht geconfigureerd en beheerd is. Ik denk wel dat het een groot schade-aandeel vormt. slechte indexering en slecht geoptimaliseerde database queries wellicht ook, maar minder. Verouderde storage zal vermoedelijk ook een gruwlijk drama zijn.
Mijn punt is dat Bytesnet zich in eerste instantie veel beter kan richten op zwaar belaste servers dan op lichte. De meeste zwaar belaste zijn gewoon licht belaste servers met slecht syteembeheer en/of slecht gebouwde applicaties. Ze zijn in de meerderheid omdat slecht beheer en slecht ontwerp niet alleen meer verbruikt maar ook eerder uitwijkt (naar nog meer hardware). Bytesnet werd er overigens volgens mij niet zo blij van als je afzag van je optie op nog een kast en terugging naar een halve kast (omdat je daarin inmiddels meer applicaties en gebruikers kon bedienen dan een paar jaar ervoor in twee of drie volle kasten had gekund). Dit is zonder uitzondering altijd het geval maar vergt uiteraard inspanning en aandacht dan gewoon lekker bijplaatsen. Zonder virtualisatie was het hele model al jaren geleden compleet ingestort. Niet alleen in de datacenters.
Rob,
Wat betreft de ‘smaakpolitie’ van eigen certificering ben ik het met je eens. En dat geldt ook eventuele optimalisaties in de workload waar ik wat kan zeggen over geheugen en indexeringen alleen zitten we hierin mogelijk niet op één lijn als het om de fantasie van het ‘winkeltje’ gaat. Misschien is mijn crypto-proza moeilijk te begrijpen maar aangaande de indexering van een tradionele database en één die past bij een moderne infrastructuur wees ik op PowerBI on-steroïds omdat tegenwoordig zo’n 90% van de data ongestructureerd is. Neem me dus niet kwalijk dat ik enigszin geamuseerd naar je klacht kijk als het om hetzelfde antwoord op dezelfde vraag gaat met zoiets als BI.
Ik heb geen oordeel over Bytesnet hoewel ik me iets voor kan stellen bij dilemma van de vloertegel, de nog niet afgeschreven
server die nutteloos wordt geeft echter wel aan waarom ik positief ben over software-defined. Wat betreft het opschalen is er ook nog zoiets als afschalen en ik zie daarin een rol voor virtualisatie omdat je daarmee niet alleen kunt consolideren. Als ik naar perfomance grafieken kijk dan is 90% belasting vaak bij het indexeren van de data voorafgaand aan de kopie welke we de back-up noemen. Verras me Rob want ik baseer me op meer dan 100 analyses hierin, verouderde storage is niet het gruwelijke drama maar een tekort aan een besef over de I/O belastingen.
Busje komt zo want een hoge CPU belasting als gevolg van een I/O knelpunt gaat veelal om de ToC, wat betreft het op de deur blijven kloppen voor hetzelfde antwoord op dezelfde vraag kan ik met 3 regels code deze website in de stress brengen. En iets meer regels tekst levert hetzelfde op als het gaat om reacties, het is niet kwaad bedoeld maar een simpele vraag over wat we willen bereiken lijkt me gerechtvaardigd. Ik vind het prima als colocatie leverancier met de ‘shame’ van nutteloze Watts komt maar ik vrees dat ze daarvoor de kennis aangaande de business processen missen.
Dagelijks indexeren van de (nieuwe) backup’s is ook een goeie. Had ik nog niet aan gedacht. Zal zich bij de meeste backup-producten niet voordoen maar wellicht wel bij gefabriceerde scripts/batch-procedures. Ik heb nooit geanalyseerd, ik weet alleen maar wat ik regelmatig of zo nu en dan gezien heb. Mijn punt is alleen dat ik me inzake verspilling meer zorgen maak over zwaarbelaste dan over ‘luie’ servers.
Rob,
Ik vrees dat je onjuist bent aangaande de back-up, veel oplossingen houden bij wat ze kopiëren en waarheen. En als het goed is maken ze ook gebruik van zoiets als CRC wat veelal een proces op de bron is zodat er gecontroleerd kan worden dat de kopie exact gelijk is. Hoe fijnmaziger je dit doet hoe meer belasting dit geeft maar een goede indexering zorgt er wel voor dat je bonnetjes ook kunt vinden. Bij het digitaliseren van de papierstroom wordt nog weleens vergeten dat de bewijslast vaak langer bewaard moet worden dan de levensduur van een oplossing. En ongestructureerde data kun je daarom ook als onbekende data lezen, zoek het fenomeen ‘Dark data’ maar eens op.
Ik wees op zoiets als BI want het idee van een data warehouse versus het idee van een data lake gaat om een ander gebruik van de GPU dan voor VDI. Het voordeel van ‘Werkplek-as-a-Service’ is dat je de gebruikers naar de data brengt in plaats van andersom, de rondslingerende ‘dark data’ zijn een risico als we kijken naar moderne datasynthese.
Wat betreft een server die het grootste deel van de tijd een belasting heeft van 80% lijkt me dat een betere sizing dan een rack vol met servers die niet verder komen dan 20% belasting. Tenslotte ligt tussen de servers ook nog zoiets als een netwerk als we kijken naar de I/O. Verder hoef ik vanuit de Hollandse zuinigheid niet uit te leggen wat je op licentiekosten bespaart. Groen versus poen blijkt de boekhouder makkelijker te overtuigen met laatste. En ja, ik denk dat we bottom-up meer kunnen doen met meten is weten dan top-down met certificeringen.