De opmars van commerciële technologie en clusters in supercomputing zet door. IBM en Sun spelen in op een groeiende vraag naar high performance computing (hpc) voor zakelijke toepassingen. De nieuwe generatie computerexperts zal meer over simulatie en wiskundig modelleren moeten leren.
De technische universiteit Rensselaer in de staat New York stelt honderdvijftig miljoen cpu-uren op zijn supercomputer ter beschikking aan bedrijven. "General Electric en IBM weten al hoe ze supercomputers kunnen gebruiken", zegt Michael Ridley, hoofd High Performance Computing van New York State. "Maar de kleinere bedrijven hebben een duwtje in de rug nodig om meer simulatie toe te passen zodat ze hun innovatie kunnen versnellen."
De standaard voor supercomputers is de jaarlijkse Top500 die installaties rangschikt op rauwe rekenkracht. De supercomputer op Rensselaer debuteerde vorig jaar op nummer twaalf, maar is inmiddels alweer gezakt. De vooruitgang gaat immers snel. Op de afgelopen juni gepubliceerde editie is die New Yorkse super uitgekomen op de tweeëntwintigste plaats.
De nieuwe lijstaanvoerder, IBM's Roadrunner-systeem voor het Los Alamos National Laboratory, breekt voor het eerst de petaflops-grens. De bundeling van 6562 dualcore Opteron-processors en 12.240 PowerXCell 8i-chips kan ruim duizend biljoen floating point berekeningen per seconde uitvoeren. IBM ontwikkelde een deel van de hier toegepaste technologie oorspronkelijk voor de Sony Playstation 3.
Vectorprocessors
Supercomputers waren ooit het domein van specialisten als Cray en SGI met exotische architecturen en bedrijfseigen vectorprocessors. Bijna eenderde van de systemen in de huidige Top500 bestaat uit clusters van commerciële servers met standaardprocessors erin. Dell en HP zijn in opkomst in de middenmoot van de Top 500. Onderzoeksbureau IDC promoot het idee dat high performance computing (hpc) ‘mainstream' wordt, onder andere met een serie congressen dit najaar in Azië met medewerking van leveranciers Cisco, HP, Intel en Microsoft.
"Simulatiegestuurde engineering begint meer gangbaar te worden", zegt hpc-directeur Michael Ridley van NYSTAR, de New Yorkse stichting voor wetenschap, technologie en innovatie. "Je kunt nu een geavanceerde simulatie op je desktopcomputer draaien. Je kunt er niet mee doen wat je met een IBM BlueGene kan, maar wel dingen waar je twaalf jaar geleden supercomputers voor nodig had. De hoop is dat de BlueGene die we nu op Rensselaer hebben over vijftien jaar de doorsnee computer zal zijn. De concepten en applicaties die je nu bouwt, worden op den duur mainstream."
‘Echte' supercomputers zijn echter geoptimaliseerd voor specifieke problemen. IBM ontwikkelde BlueGene oorspronkelijk voor analyse van proteïnestructuren voor het Human Genome Project. Dat vereiste een systeem dat niet alleen een heleboel berekeningen parallel kon uitvoeren, maar ook meteen resultaten van die berekeningen met elkaar kon correleren. Dit type ‘fine-grained parallel' problemen vereist monolithische supercomputers waarin de processors nauw met elkaar zijn verbonden.
Monte Carlo-risicoanalyses
Supercomputers gevormd door clusters zijn geschikter voor problemen waarin de deelproblemen volledig los van elkaar kunnen worden berekend. Een voorbeeld van dergelijke ‘embarrassingly parallel' problemen zijn de Monte Carlo-risicoanalyses die financiële dienstverleners toepassen.
"Het knelpunt voor de rauwe rekenkracht-systemen is de stroomvoorziening", zegt Gregg McKnight, technisch hoofd van IBM Modular Systems Development. Die divisie van de computerreus onthulde afgelopen voorjaar het iDataPlex-systeem. Met efficiënter stroomverbruik en koeling maakt iDataPlex het mogelijk meer servers in een kast te steken. iDataPlex is bestemd voor "commodity Intel grid high performance computing" volgens McKnight. "BlueGene is de top van de ijsberg. Voor meer algemene toepassing voldoet iDataPlex prima."
Voor dezelfde markt lanceerde Sun eerder al het Constellation System. Dat clustersysteem is volgens Bjorn Andersson, Suns hoofd HPC Systems, op te bouwen tot een machine met een piekprestatieniveau van 2 petaflops. Een sleutelelement is de verbinding tussen de clusternodes: een Infiniband-switch met 3456 poorten, de Magnum. "We hebben in die technologie geïnvesteerd om samenstelling van grote clusters een stuk simpeler te maken", zegt Andersson. "Door alles in één switch te doen konden we het aantal schakelelementen in de interconnect met 300 op 1 terugbrengen."
Nano Magnum
In juni heeft Sun een kleinere versie van de switch op de markt gebracht, de Nano Magnum. "De Top500 lijst is de extreme top van de markt", zegt Andersson. "We zien veel interesse in de markt onder de Top500." Sun richt zich met Constellation op taken als ontwerp en analyse in productie en fluid dynamics. Het Duitse luchtvaart-onderzoekscentrum DLR bouwt met "een kleinere versie van het Constellation System" een supercomputer met een capaciteit van 46,6 teraflops om luchtstroomanalyse voor Airbus uit te voeren.
De supercomputer op Rensselaer heeft een BlueGene als kern met daaromheen een AMD Opteron-cluster. De BlueGene levert zeventig teraflops, het cluster voegt daar twintig tot dertig teraflops aan toe. "BlueGene is ‘massively parallel', niet serieel", zegt Ridley van New York State. "Het vereist veel taakspecifieke configuratie in applicatie-ontwikkeling om de tweeëndertigduizend processors in de machine optimaal in te zetten." Het Opteron-cluster biedt bedrijven een meer laagdrempelige kennismaking met supercomputing.
Gebrek aan vaardigheden
Het belangrijkste knelpunt voor supercomputers is volgens Ridley een gebrek aan vaardigheden. "Je hebt fantastische programmeurs, maar niet de robuuste applicaties die gebruik makkelijk maken. De concepten van simulatiegestuurde engineering zijn geen onderdeel van het basisprogramma voor engineering in het hoger onderwijs. De volgende generatie werknemers zal vaardigheden in simulatiewetenschap moeten hebben en het vermogen wiskunde in hun vakgebied toe te passen.
"Supercomputers bereiken nu een snelheid waarmee je echt virtuele werelden kunt creëren", zegt Ridley. "In plaats van honderden variabelen kun je tientallen miljoenen variabelen aansturen. De applicaties worden uitzonderlijk complex. Als we de lesprogramma's aanpassen om de nieuwe generatie engineers die simulatievaardigheden bij te brengen, zullen we dingen op supercomputers zien gebeuren die we nooit voor mogelijk hielden."