Met ruim veertien teraflops heeft de SARA Reken- en Netwerkdiensten vanaf 29 mei een van de krachtigste computers ter wereld in huis. Computable volgt deze weken de opbouw van het apparaat, dat bij IBM in de Verenigde Staten is getest. Deel 5: de gebruikers.
De nieuwe IBM supercomputer van SARA wordt op 13 juni officieel gepresenteerd. Hij is dan grotendeeels getest en geconfigureerd, en zal medio augustus klaar zijn om gebruikers te ontvangen. Zij zullen aan het nieuwe apparaat moeten wennen. De code moet opnieuw gecompileerd, routines die uit bibliotheken worden aangeroepen blijken allicht net iets anders in elkaar te zitten.
“We hopen dat de bestaande software op het nieuwe systeem zonder enige vorm van optimalisatie minstens even snel presteert als op het oude”, zegt manager dr. ir. Axel Berg van de afdeling High Performance Computing en Visualisatie. “In elk geval willen we voorkomen dat de code trager is, hoewel dat niet is uit te sluiten. Veel gebruikers zullen echter meteen ervaren dat hun code sneller loopt dan vroeger.”
Initiële traagheid
De initiële traagheid kan allerlei oorzaken hebben. Het oude systeem had bijvoorbeeld veel minder nodes, maar die waren per stuk wel krachtiger. Als de code daarvoor is geoptimaliseerd, kan dit betekenen dat een rekenklus op de nieuwe machine op evenveel nodes draait als op de oude, met vertraging als gevolg. De schaling van de code moet dus aangepast worden aan de nieuwe verdeling van rekenkracht over nodes.
“Gelukkig zijn er tools om de code te analyseren”, merkt Berg op. “Die zoeken bijvoorbeeld uit welke routines de meeste tijd opslokken, zodat je weet waar aanpassingen het meeste winst opleveren. IBM staat ons bij met specialisten en verzorgt bovendien een deel van de opleidingen voor onze gebruikers.”
Waterstof
De gebruikers van Nederlandse supercomputers zijn vooral te vinden in de chemische en natuurkundige hoek. Samen slokten zij driekwart van de tijd van de oude computers op. De rest van de tijd gaat naar technici, astronomen, wiskundigen, aardwetenschappers, medici en bio-informatici. Vooral deze laatste twee vakgebieden zijn echter sterk in opkomst.
Aan het Leids Instituut voor Chemisch Onderzoek heeft prof. dr. Geert-Jan Kroes al een klus liggen voor SARA’s nieuwe rekenkracht: “Het gaat om het berekenen van de reactiewaarschijnlijkheden voor de dissociatie van moleculair waterstof op een koperoppervlak. Dat is van belang voor katalyse in allerlei processen, onder meer de productie van benzine. Aan dit systeem zijn veel experimenten gedaan en wij hopen die nu met een simulatie te kunnen benaderen.”
Kroes hoeft niets meer te migreren of te configureren: “De klus staat gewoon klaar. Het is alleen nog wachten tot de computer er staat en er klaar voor is.” Ook klimatoloog prof.dr.ir. Henk Dijkstra van de Universiteit Utrecht rekent op een soepele overgang bij de omschakeling naar de nieuwe computer: “Veel van de klimaatmodellen die wij gebruiken, draaien elders in de wereld al op IBM-machines. We verwachten dus geen problemen bij het migreren naar de nieuwe supercomputer.”
“Voor de gebruikers staat de performance voorop”, sluit Berg met een knipoog af. “Maar wij bij SARA vinden het natuurlijk ook gewoon leuk om met het nieuwste van het nieuwste te spelen.”
System-P supercomputer
De supercomputer die SARA op 13 juni in gebruik neemt, is een tussenmodelletje, gebaseerd op de Power5+ processor. De eigenlijke aankoop, een System-p supercomputer, zal in 2008 arriveren. Deze laatste is gebaseerd op de Power6 processor, die IBM aanvankelijk voor vorig jaar aangekondigd had, maar die een jaar vertraging heeft opgelopen en afgelopen 21 mei officieel gelanceerd werd.
De Power6 krijgt een kloksnelheid van 4,7 GHz, twee keer zo veel als de Power5+. In het laboratorium heeft hij zelfs de 6 GHz al gehaald. IBM heeft de lithografische trucendoos moeten opentrekken om ervoor te zorgen dat de duocore chip niet bezwijkt onder zijn eigen warmteproductie. De bedoeling is dat hij evenveel energie gebruikt als zijn voorganger, ongeveer 100 watt. Dat gebeurt onder andere door een deel van de chips bij een lagere spanning te laten werken dan de rest.
Belangrijk bij al die rekenkracht van meer dan 3000 processoren is voldoende werkgeheugen (15 terabyte) en razendsnelle toegang tot data-opslag. De machine krijgt een pieksnelheid van 60 teraflop/s, maar is zo ontworpen dat opschaling naar 120 teraflop/s mogelijk is. Dan zou het apparaat weer sneller zijn dan het exemplaar van het Rechenzentrum Garching van het Max Planck Geselschaft, dat volgend jaar een System-p supercomputer van 100 teraflop/s geleverd krijgt.
Van ijstijd tot botgroei
De botten die het menselijk lichaam ondersteunen en beschermen zijn niet eenvoudig in een mechanisch model te vangen. Het is geen massief weefsel, maar sponsachtig en bovendien levend: het verandert voortdurend. De krachten op een stukje bot simuleren levert een enorme hoeveelheid vergelijkingen op. Pas sinds de komst van de laatste generaties supercomputers zijn de onderzoekers van het Erasmus Medisch Centrum te Rotterdam in staat die op te lossen. De nieuwe computer van SARA moet hen onder meer in staat stellen om de resolutie van de berekeningen naar het niveau van individuele cellen te brengen.
Ook prof.dr.ir. Henk Dijkstra van het Instituut voor Marien en Atmosferisch Onderzoek Utrecht verheugt zich op de nieuwe computer, omdat hij dan een oceaanmodel in een hogere resolutie kan doorrekenen. “Bovendien hebben we plannen om het klimaat sinds de laatste ijstijd – 20.000 jaar geleden – te simuleren”, zegt hij.
Aan de TU Eindhoven hoopt chemicus prof.dr. Rutger van Santen de totstandkoming van materialen inzichtelijk te maken, liefst door exact te bepalen wanneer verbindingen tussen moleculen tot stand komen en verbroken worden. Dat vergt zogeheten multi-scale berekeningen. Elektronen reageren een biljoen keer sneller dan moleculen. Als je de berekening op de tijdschaal van elektronen uitvoert, kom je nooit aan de moleculen toe. Wil je beide effecten in één simulatie vangen dan moet je in hetzelfde model twee tijdschalen vangen.
De probleemstukken die SARA’s nieuwe supercomputer voorgeschoteld krijgt, zijn divers van aard, maar ze hebben ook het nodige gemeenschappelijk. De drie bovenstaande voorbeelden hebben alle te maken met een overgangsfase waar de wetenschap nog in zit, van experiment naar simulatie. Er bestaan al heel veel modellen, maar weinige daarvan zijn zo perfect dat ze alles kunnen verklaren wat in het bestudeerde fenomeen zit opgesloten. Daarvoor moeten ze nog nauwkeuriger, nog gedetailleerder worden.
Dat wil niet zeggen dat de berekeningen momenteel alleen modelvorming dienen. Er komen wel degelijk resultaten uit. Zo is dankzij eerdere supercomputers de werking van de groeizones in botten beter verklaard, werd het fenomeen van de superstorm ontdekt en zijn de eigenschappen van zeolieten (poreuze katalysatoren) in meer detail bekend. Het vervolmaken van de betreffende modellen staat echter onverminderd hoog op de wetenschappelijke agenda.
Of zoals de Twentse hoogleraar computational materials science prof.dr. Paul Kelly het uitdrukte in een onlangs door de stichting Nationale Computerfaciliteiten uitgegeven boekje: “De (…) machine zal het mogelijk maken experimenten realistischer na te bootsen en zelfs te vervangen. Dit is een continue ontwikkeling die voortgezet wordt met iedere nieuwe generatie van computers.”