Datacenters vormen de kern van onze digitale samenleving, want bijna alle applicaties, van bedrijfswebsites en persoonlijke financiële zaken tot zakelijke e-mail, draaien tegenwoordig in de cloud. En ‘in de cloud’ betekent ‘ergens in een datacenter’. Vandaar dat datacenters – volkomen terecht – door de Europese Commissie zijn bestempeld als kritische infrastructuur (‘essential entities’).
Digitale sabotage-aanvallen op datacenters kunnen desastreuze gevolgen hebben. Op het moment dat één of meerdere datacenters worden uitgeschakeld, zal de digitale samenleving daar direct ernstig hinder van ondervinden. En dat dit geen ver-van-mijn-bed-show is, zagen we in Oekraïne, waar Rusland gerichte, digitale aanvallen heeft uitgevoerd op datacenters met als doel deze uit te schakelen, hetgeen helaas ook grotendeels is gelukt.
Behalve belangrijk voor onze digitale samenleving, zijn datacenters de afgelopen jaren ook kwetsbaarder geworden voor digitale aanvallen. Dat komt doordat de facilitaire infrastructuur van een datacenter – zoals stroomvoorziening, stroomdistributiesystemen, koelinstallaties en brandblussystemen – allemaal direct of indirect aan internet zijn gekoppeld. In het verleden waren deze systemen veel meer ‘standalone’ en konden niet op afstand (remote) via internet worden onderhouden en/of aangestuurd. Deze it-aansturing brengt natuurlijk veel voordelen met zich mee, maar ook risico’s. Daarnaast is de toename van internet of things (iot)-apparaten binnen een datacenter ook een serieus punt van zorg. Iot-apparaten zijn in het verleden nooit ‘secure-by-design’ ontwikkeld en daardoor inherent onveilig. Zij vormen hierdoor digitale ingangen naar het interne netwerk voor mensen van buiten de organisatie. Het gevolg van bovengenoemde ontwikkelingen is dat het uitdijende aanvalsoppervlakte van een datacenter voor kwaadwillende hackers de afgelopen jaren veel interessanter is geworden.
Verkleinen
Met de toegenomen aanvalsoppervlakte zijn datacenters ook digitaal kwetsbaarder geworden. Dit is een ernstige zaak en uiteindelijk willen wij de kwetsbaarheid verkleinen, waardoor mogelijke aanvallen zijn te voorkomen of de schade is te beperken.
Om deze kwetsbaarheid te verkleinen, zijn de volgende aanbevelingen opgesteld:
- Ken uw digitale infrastructuur
You cannot protect what you don’t know. Zo luidt een bekend gezegde vanuit de beveiligingswereld. Om systemen te kunnen beveiligen, moet deze systemen bekend zijn. Het is dus essentieel om eerst de infrastructuur in kaart te brengen en inventarisatie van alle ot-, it- en iot-systemen en hun verbindingen/netwerken te verkrijgen. Dit is regel nummer één in de beveiligingswereld.
- Ken uw digitale kwetsbaarheden
Naast de kennis over de eigen systemen en netwerken, is het ook zaak om de kwetsbaarheden van deze eigen systemen en netwerken in kaart te brengen. Elektronische apparaten gaan namelijk weleens kapot en zullen op gezette tijden moeten worden geüpdatet of vervangen. Aangezien alle ot-, it- en iot-systemen tegenwoordig software bevatten, kunnen er softwarekwetsbaarheden in zitten. En het zijn juist deze hiaten die door de hackers worden misbruikt. Het is dus essentieel om ook een overzicht te hebben van de kwetsbaarheden binnen de datacenter-infrastructuur.
- Ken uw leveranciers en bijbehorende risico’s
Aangezien tegenwoordig alles en iedereen op een of andere manier digitaal met elkaar is verbonden, is het ook belangrijk om de ‘leverancier-afhankelijkheden’ in kaart te brengen. Ook datacenters hebben uiteenlopende leveranciers voor de stroomvoorziening, koelinstallaties en brandblussing, zoals al eerder genoemd. Aangezien deze ot-systemen vaak direct of indirect via internet door de fabrikanten worden gemonitord en/of worden onderhouden, zijn deze systemen ook ‘toegankelijk’ voor ‘anderen’. Het is dus essentieel om te weten welke leverancier digitaal toegang heeft tot datacentersystemen en op welke manier deze verbinding is beveiligd.
- Segmenteer uw systemen, netwerken, rollen en verantwoordelijkheden
Naast het verkrijgen van overzicht en inzicht, zoals hierboven is beschreven, is het goed inrichten van de infrastructuur ook zeer belangrijk voor de digitale beveiliging van datacenters. Het segmenteren van verschillende systemen en netwerken door middel van technische maatregelen (o.a. firewalls) zorgt ervoor dat kwaadwillende hackers niet overal bij kunnen wanneer zij op enige wijze toegang hebben verkregen tot de digitale infrastructuur. Hetzelfde geldt ook voor de rollen en verantwoordelijkheden van het eigen personeel. Niet iedereen mag overal bij. Dit moet afhangen van de rol en functie in de organisatie en de bijbehorende permissies. Deze permissies moeten goed zijn ingeregeld, gedocumenteerd en gecommuniceerd.
- Ontwikkel en test een incident-responseplan
Deze laatste suggestie staat hopelijk bovenaan op uw ‘actielijst’. Het is geen vraag of u een digitaal incident te verwerken krijgt, maar wanneer. Aangezien datacenters tot de kritische infrastructuur behoren, is een incident-responseplan noodzaak. Niet alleen het ontwikkelen van een dergelijk plan is belangrijk, maar ook het testen van het plan moet minimaal één of twee keer per jaar plaatsvinden, want the proof of the pudding is in the eating. Natuurlijk kan een datacenter ‘niet even’ worden platgelegd voor een incident-response-oefening, maar de procedures zullen wel moeten worden beoefend, zodat het datacenter daadwerkelijk kan ‘overleven’ als onze kritische infrastructuur serieus wordt aangevallen.
Utopie
Betekent dit dat het opvolgen van deze vijf tips – geboden, zo u wilt – ervoor kan zorgen dat datacenters honderd procent veilig zijn? Nee, die mate van veiligheid (lees: cyberweerbaarheid) is een utopie, maar ik ben ervan overtuigd dat een datacenter weerbaarder wordt als we de bovenstaande aanwijzingen serieus opvolgen. Een cyberincident kan nog altijd plaatsvinden, maar dan is de gevolgschade aanzienlijk minder en heeft het datacenter in elk geval een goed verhaal dat het er alles aan heeft gedaan om dit te voorkomen. Helaas zijn er nog steeds veel te veel datacenters die dit goede verhaal nog niet hebben.
Datacenters lijken me eerder een echo uit het verleden want een centralisatie van data is niet de meest efficiënte wijze van verwerking als ik kijk naar de enorme kosten in de I/O logistiek. En met name IoT zorgt hier voor een verschuiving doordat niet alleen enorme hoeveelheden data door machines gegenereerd worden maar de aansturing hiervan vraagt low-latency netwerken met een hoge betrouwbaarheid.
Wat betreft een koppeling van de OT zoals de aansturing van de facilitaire diensten aan een per definitie onbetrouwbaar netwerk vergroten we de kwetsbaarheid, het segmenteren van netwerken en het scheiden van rollen terwijl je net alles gecentraliseerd hebt in één datacenter lijkt me dus als het paard achter de wagen spannen. Oja, de paarden zijn vaak onbekend als we kijken naar de cloud want hiermee wordt je ‘ontzorgd’ aangaande de infrastructuur.
On prem or cloud. Maar je kunt ook voor de worst of both worlds gaan, voor de DC knuffelaars.
Inderdaad beetje absurd om een DC te huren om daarna je eigen cloud na te maken, want alles wat in het artikel genoemd is wordt al kant en klaar door de hyperscalers geleverd inclusief de Availability Zones, waarbij je zomaar een extra DC nodig zou hebben.
@Oudlid, Waarom zou centralisatie van data (dus 1 datacenter) niet meer de meest efficiënte wijze zijn? Zoals in de eerste alinea al wordt aangegeven, in de cloud betekent “ergens in een datacenter”. En met meerdere toepassingen betekent dan dan ook vaak ergens in meerdere (lokaal en/of remote) datacenters. Omdat dat dan nu ook echt overal kan zijn zal dat zonder twijfel gevolgen hebben voor de latency.
Daarmee haal je met de tweede zin de eerste onderuit. Als latency van belang is is het belangrijk om de diverse data(sources) en verwerking ervan vlak bij elkaar te hebben. Zeker als grote hoeveelheden data van de ene locatie naar de andere moeten gaan. Hoe langer de afstand des te hoger de latency en dat tikt aan bij grote hoeveelheden data, al helemaal als het dan ook nog eens kleine datapakketjes zijn.
Datacenters mag je retro noemen. Maar de toenemende behoefte aan clouddiensten bij bedrijven en personen, aan streamingdiensten en het multimediale social media gebruik, zorgt nog steeds voor een groeiende behoefte aan datacentercapaciteit (en niet alleen dat). Decentrale IoT Edge gaat die datacentra niet vervangen. Industriële automatisering was vroeger ook al sterk decentraal ingericht (met PLC’s, PCS’en en SCADA-systemen).
Verder zullen er ook “ouderwetse” on premises datacentra blijven. Dat alles heeft onder meer te maken met kosten en beveiliging.
Mooi artikel Fred.
Berry, de cloud gaat niet om ‘zomaar een datacenter’ maar om netwerk computing middels het publieke netwerk. Hierin lijkt het me onzinnig om iemand in Boerenkoolstronkeradeel te laten werken op resources die aan de andere kant van de wereld draaien. Maatschappelijk bijkomende factoren zoals een carbon footprint maken duidelijk dat ‘zomaar een datacenter’ als antwoord niet meer genoeg is als we kijken naar nieuwe efficiëntie-factoren.
Wat betreft spreiding kennen we tegenwoordig dan ook een andere facilitaire infrastructuur, het datacenter is een container.
@Oudlid. Inderdaad vind ik het ook onzinnig om gebruik te maken van resources aan de andere kant van de wereld. Maar dat netwerk computing in een publiek netwerk draait evenzogoed nog steeds in een datacenter, of dat nu een losse computer is, een virtuele machine of een container (die uiteindelijk dan weer op een server draaien). Zoals Jaap ook al zegt, door al die cloud diensten, social media etc is er alleen maar meer behoefte aan datacenters. Zolang we gebruik maken van die grote jongens, zal de applicatie op “een” plek in de wereld draaien. Met Google zouden we dan misschien wel gebruik kunnen maken van het Datacenter in Groningen, maar ook dat weten we niet zeker. Met Office365 zouden we misschien in het Nederlandse Microsoft datacenter kunnen zitten, maar we weten dat niet zeker.
Ik denk niet dat er veel mensen zijn die zich zoveel zorgen maken over de carbon footprint. Ja, wel als je het specifiek vraagt, maar in daadwerkelijk gebruik zie ik dat niet echt.
– Zijn er minder mensen die Crypto gebruiken vanwege het (exceptionele) energie verbruik?
– ChatGPT is nu een hype, maar is het energieverbruik van AI en machine learning al een keer benoemd?
– Indertijd werd een discussie in een forum over energiebesparende features in de 4.0 Linux kernel als onzinnig afgedaan. Misschien nuttig voor een laptop maar “mijn PC zit toch op het lichtnet”. Alsof je dan geen elektriciteit verbruikt.
– In de afgelopen jaren heb ik diverse tickets bij onze leveranciers gehad vanwege hoger energie verbruik in een nieuwe Linux kernel. Een ticket heeft 18(!) maanden opengestaan omdat het alleen al een jaar duurde voordat ik ze ervan overtuigd had dat 50% hoger CPU verbruik in een idle machine niet gewenst is.
Berry,
Datacenter versus cloud moet je even Europese regelgeving aangaande carbon footprint lezen want al die online resources zijn niet erg efficiënt. De energiebesparende features in de 4.0 Linux kernel met een (verplicht) 15% efficiëntere voeding en 5 graden minder koeling gaat om de som der delen want een Corporate Sustainability Reporting Directive (CSRD) verplicht organisaties om stappen te nemen. Je workloads uitbesteden zonder inzichtelijkheid in energie efficiëntie lijkt me niet een stap in de goede richting, dat is het probleem verschuiven in plaats van oplossen.
Ik ben het dan ook niet met je eens want wij van WC-eend hebben met regelmaat te maken met een carbon footprint vraagstuk in een cyclische tech refresh binnen het datacenter welke evolueert naar een softwarematige invulling zodat de inactieve workloads eenvoudig offline gezet kunnen worden. En in zo’n 40% van de business cases speelt de carbon footprint dan ook een rol omdat het de OpEx is in een TCO verhaal.
Hetzelfde probleem geldt de data, de duurzame preservering wordt de komende jaren een dingetje want de ‘goedkope’ object-based oplossingen op basis van spinning disks hebben een aanzienlijke carbon footprint. Gemiddeld is zo’n 80% van de data ‘koud’ doordat deze niet meer gewijzigd mag worden, nog zelden geraadpleegd wordt maar wel 7 tot 10 jaar bewaard moet worden.
@Oudlid, ik denk dat we het meer eens zijn dan je denkt. Inderdaad kun je inactieve workload bij voorkeur uitzetten. Wij hebben veel data op tapestorage staan, en zeker de data die van rechtswege langere tijd beschikbaar moet blijven, dat kost geen energie in spinning disks. Maar dan blijf je nog steeds zitten met servers die wel online moeten blijven en toch meer energie verbruiken dan nodig is.
Waar ik vooral naar kijk zijn (mijn) servers die idle zijn maar toch (te veel) energie verbruiken. Mijn machines draaien niet meer CPU cycles dan echt strikt noodzakelijk. In de afgelopen releases van SLES (11, 12, 15) zie ik dat de idle load langzamerhand wel aan het oplopen is. Met soms een uitschieter, zoals het voorbeeld dat ik aanhaalde, en dat kaart ik dan aan omdat ik niet wil dat een idle server cycles verstookt omdat het een of ander nitwit een ideetje had dat wereldwijd een paar extra energiecentrales gaat opslurpen.
De rapporten en directives vind ik meestal een farce. “We moeten sustainable zijn, maar met het planten van extra bomen kunnen we dat compenseren.” Terwijl het punt juist is het verminderen van energie verbruik. Ook als het gaat om ontwikkeling van applicaties en operating systems zie ik maar weinig aandacht voor het energie verbruik (lees CPU cycles). Sterker nog, het gaat eigenlijk altijd om de functionaliteit, maar energieverbruik, net als security, is meestal het sluitstuk van een project. Als er al aandacht voor is.
Voorbeeld. Processor fabrikanten hebben aandacht besteed aan het verminderen van energie verbruik, door het dynamisch verminderen van de CPU klokfrequentie en het uitschakelen van cores. Dat zijn de zgn C-states. C0 is volle capaciteit, C5 is uitgeschakelde core of processor. Al jaren geleden heb ik een rapport gezien waarbij is geconstateerd dat processoren in een datacenter vrijwel uitsluitend in C0 draaien. Een enkeling in C1 maar nooit in C2 – C5. Daarmee kunnen we constateren dat de fabrikanten dan wel schermen met zuinigere processoren maar dat dat in de praktijk nooit wordt gehaald.
Ik kan je op een bierviltje uitrekenen hoe je in een datacenter 50% vermindering van energie verbruik kan realiseren. Maar ik ben nog nooit iemand tegen gekomen die daar ook daadwerkelijk iets mee wil gaan doen. Sterker nog, ik hoor vooral dat ik niet moet zeuren want “het werkt toch?”.
Zoals ik altijd al zeg, tape is niet dood maar groen. En de ontwikkelingen op tapegebied staan ook niet stil waardoor het nog altijd een veel gebruikt opslag medium is. Want een offline kopie is veel moeilijker te raken door ransomware dan al die online data terwijl het vele malen goedkoper is dan softwarematige beschermingen als ik kijk naar de licentiemodellen. Tot op heden gaat er dan ook nog niks boven een koffer vol met tapes als we het over de bandbreedte hebben want tot op heden wordt er nog 7 keer meer data op wielen verplaatst als over het netwerk als ik naar de nog altijd immens populaire USB-disks kijk. En inderdaad gebruikt deze offline data dus geen stroom en dat feit gaat steeds meer tellen als we kijken naar OpEx in een TCO berekening.
Het meenemen van de operationele kosten in de businesscase geeft vaak een overtuigend argument als “het werkt toch?” efficiënter kan en daardoor niet alleen groener is maar ook goedkoper. Niets doen is namelijk geen optie meer want het zijn niet de Europese directives die de markt dicteren maar de concurrentie, 50% vermindering van de kosten levert aan de andere kant van de balans 50% meer winst op met als de bijkomende bonus dat je weer een paar vinkjes kunt zetten voor de MVO compliance. Het probleem is echter dat het technische beheer vanaf de onderkant ‘de roepende in de woestijn’ is omdat de business geen idee heeft wat er in het datacenter gebeurt. Door beheermodel van Looijen blijven we klooien omdat de techniek uitbesteed is, het ‘zomaar een datacenter’ geeft al de desinteresse in de onderliggende infrastructuur aan.
Een bewustwording hiervan komt pas als “het werkt toch?” met een NEE beantwoord moet worden want ‘Never waste a good crisis’ komt er pas budget vrij om de dingen anders te gaan doen met het idee van: “Build back better” En hierin moeten we vooral kijken naar de workloads op business niveau want een simpele verandering van real-time naar batch kan flink besparen als je 70% af kunt schalen. Denk dat de provider je dit niet zal gaan vertellen als deze een businessmodel heeft van zoveel mogelijk capaciteit verkopen.
Near Online data opslag is een optie die te vaak over het hoofd wordt gezien, net als te oude onzinnige gegevens wegdoen.