Cloudcomputing belooft veel. Een van de definities is ‘het beschikbaar stellen van enorm veel computercapaciteit vanuit één locatie via het internet’. De toekomst zou pc-loos kunnen worden, als alle mogelijke applicaties en rekenkracht via een terminal met internetaansluiting te benaderen zijn.
Het bedrijf Zillow in Seattle baat met 165 werknemers een populaire website uit die gratis schattingen van de prijzen van woningen levert aan kopers en verkopers. Het bedrijf opereert in een zeer grillige markt en wilde daarom onlangs de prijsontwikkeling van 67 miljoen huizen over een periode van 12 maanden herberekenen. Ga daar maar aan staan. De afdeling ICT berekende dat daarvoor op de eigen computers een periode van zes maanden nodig was. De kosten bedroegen een paar miljoen dollar. Dus?
Dus werd Amazon ingeschakeld. De klus werd via internet uitbesteed aan 500 servers in de ‘elastic cloud’ van Amazon Web Services. De servers voerden de berekening uit in drie weken en de rekening die Zillow kreeg bedroeg 50.000 dollar. De zegeningen van cloudcomputing doen denken aan de slogan ‘geen gezeik, iedereen rijk’ van Jacobse & Van Es. Zillow bespaarde een paar miljoen dollar door zijn eigen ict-afdeling niet te gebruiken en Amazon verdiende geld met servers die anders hun dagen in ledigheid hadden gesleten.
U las dat trouwens goed: 50.000 dollar. Het economisch fundament van cloudcomputing à la Amazon is dat computing een stuk goedkoper en stabieler wordt naarmate er meer servers ingeschakeld worden. Het is per processor een stuk goedkoper om een kudde van 10.000 servers te runnen en te koelen in één datacenter dan verspreid over 10.000 bureau’s in 10.000 verschillende kantoren.
De consequentie van de regel ‘hoe meer servers, hoe lager de kosten’ is dat een bedrijf via Amazon Web Services voor tien dollarcent per uur een server in de cloud van Amazon kan huren. Wie een cluster van 500 Amazon-servers voor een etmaal huurt is dus 1200 dollar kwijt. Desondanks (zo berekende het tijdschrift Forbes) opereert Amazon een server in zijn ‘elastic compute cloud’ met een bruto winstmarge van 45 procent! Amazon verdient aan die servers een stuk beter dan aan de verkoop van boeken.
Computing uit het stopcontact
Hoe meer servers, hoe beter. Volgens Nicholas Carr, schrijver van ‘The Big Switch: Rewiring the World, from Edison to Google’, kunnen ‘clouds’ (serverconcentraties) als die van Amazon en Google de meeste opdrachten negentig procent goedkoper doen dan het computerpark van een middelgroot bedrijf. Carr vergelijkt cloudcomputing met de overschakeling op het einde van de negentiende eeuw van gedecentraliseerde naar gecentraliseerde stroomgeneratie. De fabrieken schakelden hun eigen generatoren uit en gingen goedkopere (wissel)stroom afnemen die via een nieuw distributiewerk tot hen kwam van de grote centrales.
Op dezelfde manier zullen de bedrijven in de naije toekomst volgens Carr niet langer hun eigen ict-afdelingen hebben. Intelligentie zal immers uit een cloud via breedbandige verbindingen worden binnengepompt. De ict-afdeling is dan alleen nog een ‘mannetje’ dat de stekker in het stopconctact steekt en op het einde van de maand de meter afleest. Bedrijven worden flexibeler: servers en applicaties kunnen naar behoefte worden ingehuurd en afgestoten en ieder bedrijf kan beschikken over de meest geavanceerde toepassingen. En inderdaad, Carr voorspelt ook grote werkloosheid onder de ict’ers.
Het idee dat intelligentie als water uit de kraan of stroom uit het stopcontact komt is allesbehalve nieuw. Al in de jaren zestig van de vorige eeuw schreef ict-pionier John McCarthy dat ‘computing ooit net zo georganiseerd zal zijn als een nutsbedrijf’. Sun Microsystems lanceerde in de jaren negentig de slogan ‘het netwerk is de computer’ en Eric Schmidt (ooit het huisgenie van Sun, nu ceo van Google) vergelijkt in Busines Week cloudcomputing doodleuk met time sharing. "Het is de terugkeer van de mainframe, alleen is de mainframe nu een hele verzameling computers", aldus Schmidt.
Is het een grid of een cloud?
Wat is nu het verschil tussen cloudcomputing en grid computing? Randal Bryant, faculteitsvoorzitter van de School of Computer Science van de Carnegie Mellon University, schrijft dat het verschil in de onderlinge connecties zit. Een grid bestaat volgens Bryant uit een grote verzameling computers, verspreid over meerdere locaties, die gezamenlijk werken maar waarbij de beperkte bandbreedte tussen de computers de taken beperkt tot problemen die weinig onderlinge communicatie vereisen. De servers die een cloud vormen staan in één datacenter en hebben razendsnelle onderlinge verbindingen, waardoor ze de taken onderling beter kunnen verdelen. Een cloud kan daardoor beter dan een grid zeer complexe problemen aanpakken en is bovendien meer ‘crash-proof’.
Hoewel grids zo’n tien jaar geleden al werden bejubeld als het beste idee sinds de uitvinding van de ritssluiting, hebben ze veel meer opgang gemaakt in de academische wereld dan in het bedrijfsleven. Die geschiedenis lijkt zich te herhalen, nu de exploitanten van de clouds (eigenlijk vallen alleen Google, Yahoo!, Amazon, IBM en Microsoft in deze selecte categorie) vooral samenwerken met universiteiten. Volgens Randal Bryant zijn clouds vooral zeer goed in het analyseren van enorme hoeveelheden ongestructureerde data, een kwaliteit die vooral wetenschappers willen gebruiken.
Voor Google is het bovendien van levensbelang dat de universiteiten talent afleveren dat in staat is de cloud van het bedrijf (volgens onbevestigde geruchten zijn dit ondertussen meer dan een half miljoen servers) te begrijpen en te beheren. Google schonk de University of Washington een paar honderd servers, waardoor de studenten van de afdeling Computer Sciences de kans krijgen te werken met een mini-cloud. Ze krijgen overigens geen toegang tot Googles MapReduce, het softwareplatform dat Googles cloud coördineert, maar moeten hun cloud runnen met de open source variant Hadoop (zie kader). Google werkt inmiddels met IBM aan een initiatief om meer universiteiten te betrekken bij de ontwikkeling van clouds.
Dood van pc niet op handen
De geschiedenis van computerindustrie kan worden gezien als een tegenstelling tussen het centraliseerde model dat gedomineerd wordt door mainframe, supercomputers, grids of clouds, en het gedecentraliseerde model dat gebaseerd is op steeds krachtiger desktops. De ‘centralisten’ hebben al vaak de dood van de pc verkondigd. Wie herinnert zich niet de New Internet Computer (NIC), een uitgeklede computer die Oracle-ceo Larry Ellison in 2000 lanceerde als het einde van de pc?
Ook de profeten van het ‘cloud computing’ voorspellen nu weer dat het einde van de pc zeker is. Computing kan beter, sneller, en goedkoper worden uitgevoerd door goed gecontroleerde ‘clouds’ dan door dure, trage pc’s die constant worden bedreigd door virussen. Wie wil nog een dure versie van Microsoft Office aanschaffen, als je via het web gratis een tekstverwerker of spreadsheet kunt gebruiken uit de ‘cloud’ van Google?
De aankondiging van de dood van de pc is steeds voorbarig geweest. Ook nu weer. Ondanks de opmars van het ‘cloud computing’ en steeds sneller internet worden pc’s juist complexer met almaar grotere harddrives en snellere processors. Waar blijft die goedkope, flexibele computer die alleen in de ‘cloud’ hoeft te worden geplugd? Volgens Nicholas Carr, schrijver van ‘The Big Switch’, komt die eraan. Hij schrijft op zijn blog dat Google en Apple in het geheim plannen hebben om samen een ‘inexpensive piece of hardware’ te introduceren dat Googles cloud optimaal kan gebruiken. Voorlopig is Carr echter de enige die hier weet van heeft.
Obstakels
Zullen de clouds binnen afzienbare tijd alle ict-activiteiten van bedrijven, universiteiten en particulieren overnemen? Dat zal zo’n vaart niet lopen. De gezamenlijke clouds van Amazone, Google, IBM, Yahoo! en Microsoft zijn daarvoor nog lang niet groot genoeg. Om terug te keren naar de metafoor van Carr: er zijn meer dan 50.000 centrales nodig om de wereld te voorzien van stroom. Er zouden ook vele duizenden datacentra nodig zijn om alles en iedereen in de wereld te voorzien van ict.
Niet iedereen is blij dat alle controle over de ict-infrastructuur de deur uitgaat. Cio’s realiseren zich dat ze met cloudcomputing een groot stuk controle opgeven. Richard Jones van de Burton Group zegt in een interview met IT Business Edge dat de generatie ict-managers die zijn opgegroeid in de jaren tachtig en negentig gefocust zijn op security en het buiten de deur houden van virussen. Cloudcomputing zal pas echt doorbreken als er een nieuwe generatie ict-managers opstaat die zonder blikken of blozen bedrijfskritische data in de cloud deponeren. Misschien doen ze dat weer niet als ze het boek van Nicholas Carr lezen. Carr voorspelt namelijk dat The World Wide Computer – zeg maar The Cloud – ons allen zal overheersen. Zo eindigen de zegeningen van cloudcomputing toch weer met hel en verdoemenis.
MapReduce en Hadoop
Google slaagt erin tienduizenden servers als een cloud te laten opereren met het eigen softwareplatform MapReduce. Google zit op de broncode van deze software als een broedende kip op haar eieren, maar heeft wel papers gepubliceerd waarin de technische onderbouw van MapReduce wordt besproken. Op basis van deze papers is er een open source kloon van MapReduce ontwikkeld die Hadoop heet en die volgens insiders de standaard voor ‘distributed computing’ kan worden. Hadoop is vooral geschikt voor de batch-analyse van grote hoeveelheden ongestructureerde data en wordt al gebruikt op verschillende universiteiten die zich bezighouden met cloud computing. Het eigenaardige is dat Hadoop vooral ontwikkeld wordt door Googles aartsrivaal Yahoo!. Een team van tien mensen werkt bij Yahoo! aan deze open source kloon van MapReduce om zo een klein beetje Google-magie in het eigen bedrijf te injecteren. Het is een variant op het bekende thema in de ict dat de nummer 2 in de markt (in dit geval Yahoo!) open source adopteert in een poging de marktleider (Google) bij te halen.