Elke werkdag behandelt Computable een onderwerp waarover lezers kunnen discussiëren. Vandaag over de verse wapenwedloop met supercomputers tussen de VS en ditmaal China.
De Amerikaanse regering heeft opnieuw hoog ingezet op het heroveren van de wereldkroon op het gebied van supercomputers. Waar de VS begin deze eeuw plots is gepasseerd door de Japanse Earth Simulator, daar loopt het ict-leverende land nu achter op grootmacht China. Net zoals er lang geleden in de Koude Oorlog een ruimterace was, aangezwengeld door de Russische satelliet Sputnik, zo loopt er nu weer een wapenwedloop met supercomputers.
Het gaat echter niet alleen maar om wie ‘de grootste’ heeft qua petaflops aan rekenvermogen. De enorme rekenkracht van moderne systemen dient voor nieuwe enorme rekenklussen. Zoals het opvangen, koppelen en analyseren van de enorme datastromen die mensen, internetdiensten, het opkomende IoT (internet of things) en dieren genereren, naast meer traditionele supercomputertaken als gedetailleerde economische modellen, diepgaande natuurwetenschappelijke analyses, kernwapenstimulatie en analysewerk voor inlichtingendiensten. De nieuwe supercomputerwedloop is méér dan alleen een prestigestrijd. Wat vind jij?
Ik vind de stelling onzin. Vrijwel alle taken die in de stelling worden genoemd als zijnde een taak voor supercomputers worden handiger, beter, en sneller gedaan door netwerken van samenwerkende kleinere systemen. Er zijn nog maar zeer, zeer, weinig taken die echt door een supercomputer moeten worden gedaan. Het is niet meer dan een prestigestrijd.
@Jos: Moderne supercomputers zijn clusters. Het zijn dus sowieso allemaal kleinere systemen met speciale netwerken er tussen. (Geen Ethernet)
@Technicus: Hmmm, ja, inderdaad. Wat dan weer de vraag oproept wanneer we precies spreken over een supercomputer en wanneer over een cluster van samenwerkende systemen. En ook de vraag of dat onderscheid dan eigenlijk nogal wat betekent.
Volgens Wikipedia is de grootste supercomputer op het moment de Tianhe-2, met 16,000 nodes, ieder met 2 Ivy Bridge Xeons en 3 Xeon Phi CPUs. Dat is best leuk, maar ik moet toch bekennen dat ik er niet van achterover val. Bij Google, Facebook en Amazon bouwen ze al een tijdje vergelijkbaar clusters, niet geoptimaliseerd voor floating point maar voor andersoortige workloads, en tegen aanzienlijk lagere kosten dan de Tianhe-2.
Die Tianhe-2 kostte 390 miljoen dollar. De NSA heeft recentelijk een datacenter in Utah afgeleverd wat 1.5 miljard dolar kostte, zeg even drie keer zo veel. Mag je drie keer raden wat ze daar doen. En Google schijnt 600 miljoen dollar te steken in een datacenter in Alabama (zegt het Internet, als Google medewerker kan ik dat natuurlijk niet bevestigen of ontkennen, ik weet het eenvoudigweg niet, ze hebben het me niet verteld :-). De meerderheid van dat budget gaat natuurlijk in computer hardware zitten.
De kosten van een supercomputer vallen dus in het niet bij de kosten van de datacenters die de reuzen tegenwoordig neerzetten. Gasten met echt serieuze data processing behoeften bouwen dus enorme datacenters met “tightly coupled” clusters van systemen. Heet dan wel geen supercomputer, maar kan ook best leuk rekenen.
Dat betekent dan weer dat als je een supercomputer gaat bouwen je ofwel heel, heel, speciale workloads hebt, of het is een prestigekwestie.
Over de Tianhe-2 gaat overigens het gerucht dat die heel moeilijk te programmeren is. Dat is sneu, want als ik bij Google 100.000 CPUs aan het werk wil zetten dan is dat ongeveer een half uur programmeren (als je weet wat je doet). Ook dat geeft aan dat als je echt serieus data wil kraken je waarschijnlijk goedkoper en handiger uit ben met een niet-supercomputer.