Energieverbruik en vloeroppervlak, inclusief koelingsapparatuur, zijn voor supercomputers in toenemende mate een zorg. Dit stelt vice-president Dave Turek, bij IBM verantwoordelijk voor de dienst supercomputerprogramma (deep computing).
|
Het aantal machines met Teraflops-capaciteit is eveneens sterk gegroeid: in 1994 waren er nul, in 1999 twee en nu maar liefst driehonderdachtennnegentig, vertelt Turek. De IBM-wetenschapper verwijst met voldoening naar de huidige ranglijst van supercomputers (top500.org). “In de top500 staan 216 IBM-machines, waarvan 161 Linux-clusters.” Het aantal Linux-clusters is sterk gegroeid: nul in 1994, zes in 1999 en 294 nu.
Breder gebruik
“HPC (high performance computing – red.) is echt niet meer alleen voor wetenschappelijke doeleinden of overheidsgebruik.” De topman ziet supercomputers ook afdalen beneden het niveau van grootgebruikers als Shell, die complexe bodemanalyses laten doorrekenen. “De rekenkundige vereisten van de gemiddelde applicatie neemt al enorm toe.”
Turek pakt er zijn cijfers bij: “Tien jaar geleden was zestig procent van de machines in de top500 van onderzoeksinstellingen en academische instituten. Vijf jaar geleden 48 procent en nu 41 procent. Industriële gebruikers waren respectievelijk goed voor 24, 46 en 55 procent.” De supercomputermarkt groeit dus. Onderzoeksbureau IDC nam in mei dit jaar een marktgroei van 6,7 procent waar voor HPC-servers.
Niet alleen kracht
De Blue Gene/L-machine, die met 70,7 Teraflops de krachtigste super ter wereld is, wordt nu geleverd aan het Lawrence Livermore-laboratorium, vertelt Turek. In mei komend jaar moet de configuratie zijn uitgebreid om een prestatieniveau van 360 Teraflops neer te zetten.
Het gaat volgens Turek echter niet alleen maar om rekenkracht. “De it-industrie is altijd aangedreven door snelheid, de need for speed. Dat vereist enorm veel energie. Daar gaat nu veel aandacht naar uit; het is een nieuwe trend waar leveranciers pas sinds ongeveer een jaar op ingaan. Het energieverbruik bepaalt de fysieke omvang van een machine én de totale kosten.” De supercomputerexpert verwijst niet alleen naar de stroomrekening, maar ook naar de kosten voor een datacentrum, die vaak per vierkante meter worden berekend.
|
“Bovendien bevindt de processortechnologie zich nu op het niveau van vijf atomen. Dan werken oude truuks om de snelheid te verhogen niet meer, zoals het maken van een dunnere atoomlaag om ietsje sneller te zijn.” De chipindustrie lijkt het erover eens te zijn dat het blijven verhogen van de kloksnelheid een aflopende zaak is. Producenten als IBM, maar ook AMD, Sun Microsystems en Intel zelf, richten zich dan ook op multikerntechnologie en andere benaderingen als uitweg.
Omvang en verbruik
IBM heeft hierbij systeemomvang en energieverbruik ook in het oog. De Blue Gene/L-configuratie die in mei 360 Teraflops moet halen, neemt volgens Turek in totaal ongeveer honderd vierkante meter in beslag. “Tweehonderddertig als je ook de koeling meetelt. Een equivalent Linux-cluster met Itanium-processoren zou iets van duizend vierkante meter zijn, twee- tot drieduizend inclusief koelingssystemen.”
De 360 Teraflops-Blue Gene verbruikt ongeveer 1,5 Megawatt, aldus Turek. “Een soortgelijk Linux-cluster met Itaniums zou vijftien Megawatt verbruiken. Bedenk daarbij dan dat een Megawatt per jaar ongeveer een miljoen dollar kost, en dat is mét forse korting.”
De IBM-topman rekent voor dat de geplande Petaflop-uitvoering van de Blue Gene, dan dus Blue Gene/P genaamd, nauwelijks groter zal zijn dan de huidige L-uitvoering. “De Petaflop-machine zal ongeveer honderd vierkante meter beslaan en 1,8 Megawatt aan stroom verbruiken. We hebben dat prestatieniveau in 1999 als doel gesteld en dat was vijfhonderd keer de rekenkracht van de toenmalige nummer een in de top500.”
De Blue Gene-familie dankt de – relatief – kleine omvang en het lage energieverbruik aan het feit dat de processoren ingebedde chips zijn met veel geïntegreerde circuits. “In wezen zijn het systemen-op-een-chip, die heel gewoon zijn voor ingebedde apparaten.” De processoren van de in wording zijnde Petaflop-uitvoering draaien op een schamele kloksnelheid van 1 Gigahertz. “Dat is de volgende generatie van die processoren”, vertelt Turek.
Snelheidsrace
Hij haalt uit naar de concurrentie die volgens hem nog vastzit in de bekende snelheidsrace van de it-industrie. De Earth Simulator van NEC, die de afgelopen twee jaar met flinke voorsprong de nummer één was, verbruikt volgens Turek een slordige 150 Megawatt. “De nieuwe systemen van NEC, die onlangs zijn onthuld, zijn maar vijftien procent beter in hun energieverbruik.”
|
Hybride modellen
Het zijn echter niet alleen doemstijdingen die de IBM vice-president wil brengen. “Er duiken nu hybride modellen op, vanwege het verschuiven van de economische motieven.” Dit omvat omvang en energieverbruik, maar ook capaciteit; het inschatten van en vervolgens in huis hebben daarvan. “Traditioneel schat een bedrijf zijn piekcapaciteit in om zijn ict daarop in te stellen. Je hebt dan echter altijd het risico van over- en ondercapaciteit.”
De gang naar ict als nutsmiddel past hier ook in. On Demand, IBM’s initiatief voor ict als nutsmiddel, speelt volgens Turek in op de ict-vraag die bedrijven zichzelf stellen: binnenshuis houden of uitbesteden? IBM sluit zijn supercomputer-programma (deep computing) aan op het initiatief voor ict als nutsmiddel (grid computing).
“IBM zet daarbij breed in: we hebben Intel-processoren, onze eigen Power-chips en Opteron-processoren van AMD. Onze concurrenten breiden nu ook uit. Sun en HP hebben de Opteron omarmd en zelfs Dell overweegt het.” Turek ziet dit als een erkenning van IBM’s strategie dat er niet één platform of oplossing de beste is. “Voor mij is de handtas van mijn vrouw maar één ding: een tas. Voor haar is er een groot verschil tussen een goedkope en een van Yves Saint-Lorent. En ict-gebruikers zijn net zo.”< BR CLEAR=LEFT>