Het traditionele datacenter doet nog trouw dienst, maar transformaties spelen een groeiende rol. Van Google-datacenters met ‘wegwerphardware’, via kant-en-klare zeecontainers tot nu ook onderzeecapsules.
Microsoft heeft een golf aan wereldwijde aandacht opgewekt met zijn Project Natick. Daarbij hebben onderzoekers van de ict-gigant een prototype ontwikkeld van een compleet datacenter dat onder water dienst doet. Dit prototype is net uitgebreid getest in de oceaan bij Californië. De test van de stalen capsule met een diameter van 2,4 meter heeft 105 dagen geduurd waarbij het ingekapselde datacenter op een diepte van 9,41 meter lag.
Deze opstelling is niet alleen voor theoretische tests gebruikt, maar heeft ook daadwerkelijk jobs gedraaid uit de Azure-cloud van Microsoft. Dat laatste is gebeurd na een succesvolle eerste testfase. Op basis van de positieve resultaten is de testperiode toen verlengd en zijn commerciële dataverwerkingsprojecten in Azure toegewezen aan het onderzeese prototype. In de witte capsule zit een enkel serverrack dat voor optimale hitte-afvoer was omgeven door vloeibaar stikstof.
Koel, snel en donker
De voornaamste doeleinden van dit Microsoft-experiment zijn drievoudig. Ten eerste is er het voordeel van koeling. Dankzij de onderdompeling in de zee is er niet langer een energieslurpend en milieubelastend koelingssysteem nodig. De verwarming van het zeewater door dit datacenter is volgens de onderzoekers verwaarloosbaar qua impact op het milieu. Een bijkomend energie- en milieuvoordeel is de mogelijkheid om deze datacentercapsules dicht onder het wateroppervlak te laten drijven om met eigen turbines energie te putten uit oceaanstromingen.
Ten tweede is er het voordeel van letterlijk kortere lijnen naar de gebruikers van datacenterdiensten. Veel grote steden – met dus veel gebruikers – bevinden zich aan de kust. Het plaatsen van datacenters vlakbij de kust zorgt voor lagere latency in de communicatielijnen daarheen. Vaak worden datacenters geplaatst op locaties waar er veel ruimte beschikbaar is, waardoor de vestigingskosten laag kunnen zijn. Een andere locatiefactor is nabijheid van energiecentrales, maar ook een koele omgeving zoals bij het Zweedse Facebook-datacenter vlakbij de Poolcirkel.
En ten derde geeft Microsofts experiment met een onderwaterdatacenter inzichten in het ontwerpen en beheren van ict-faciliteiten waar een monteur echt niet even langs kan gaan. Volledig geautomatiseerde en op afstand bestuurde datacenters zijn an sich niet nieuw, maar de groei van cloud computing verhoogt de behoefte hieraan. Zogeheten lights out datacenters kunnen veel besparen op beheerkosten. Daarnaast kan dit ook op energiekosten besparen doordat serveromgevingen dan voor mensen bijvoorbeeld onaangenaam warm mogen worden, aangezien beheerders toch niet aanwezig zullen zijn.
Wereldwijd schalen
Projectmanager Ben Cutler van Microsoft Research vertelt in een uitlegvideo (zie onderaan dit artikel) dat deze datacentercapsules de mogelijkheden geven om cloudcapaciteit enorm te kunnen schalen: overal ter wereld en binnen negentig dagen te activeren. De tijd voor ingebruikname van een datacenter ligt nu op zo’n twee jaar. Bovendien kan het uitsluiten van menselijke aanwezigheid en onderhoud ook het standaardontwerp van serverracks overbodig maken.
De Natick-onderzeecapsule is voorzien van zo’n honderd verschillende sensoren om druk, vochtigheid, beweging en andere factoren te meten. Het standaardontwerp is erop gericht om zonder onderhoud tot wel vijf jaar mee te gaan. De onderzoekers van Microsoft werken nu aan een ontwerp voor een onderzeedatacenter dat drie keer zo groot is als de nu geteste capsule. Dit gebeurt in samenwerking met een ontwikkelaar van alternatieve energiesystemen om oceaanstromingen te ‘oogsten’ voor energie. Naar verwachting wordt er volgend jaar een nieuwe test uitgevoerd, mogelijk aan de kust van Florida of van Noord-Europa.
Zeecontainers, zeewater en buitenlucht
Bijna tien jaar terug heeft serverfabrikant Sun Microsystems al complete datacenters verwerkt in zeecontainers, die snel wereldwijd zijn te verschepen en gelijk te gebruiken. Google werkte hier toen ook al aan, net zoals andere datacentergrootgebruikers en -specialisten. Enkele jaren geleden heeft Google in Finland al zeewater gebruikt voor datacenterkoeling. Rond diezelfde tijd experimenteerde Microsoft al met een openluchtdatacenter waarbij servers in een tent stonden opgesteld.
Leuk filmpje, maar waarom moeilijk doen als je je data ook gewoon off site, off line 60 meter boven NAP kunt opslaan?
Opwarming is opwarming, omdat we niet slim genoeg zijn om de impact op water te berekenen doen ze net alsof dat geen gevolgen heeft. Als dit soort apparaten er met duizenden tegelijk worden ondergedompeld vinden ze het gek dat er ijs gaat smelten, vissen sterven of meer van deze ongein.
Misschien eens meer aandacht schenken aan wat echt belangrijk is i.v.p. hoe kunnen we onszelf nog sneller in de problemen werken door alles een levensduur van niks te geven.
Duurzaamheid en menselijkheid wordt door de techniek de laatste jaren echt niet bevorderd.
ICT is stilaan de grootse vervuiler aan het worden in meer dan een opzicht.
“De verwarming van het zeewater door dit datacenter is volgens de onderzoekers verwaarloosbaar qua impact op het milieu.” = een aannamen.
Op kleine schaal moeten energiecentrales die aan de grote rivieren liggen soms al de koeling staken omdat het risico op vissterfte optreedt door de opwarming van het koelwater.