‘Grid computing’ heeft niet te maken met een specifieke technologie of architectuur. Veel meer gaat het om een verwerkingsmodel dat, afhankelijk van de toepassing, verschillende verschijningsvormen kent. Een projectontwikkelaar van het Telematicainstituut schetst de relatie tussen webservices, ‘peer-to-peer’, ‘supercomputing’, ‘metacomputing’ en ‘grid computing’.
‘Grid computing’ staat momenteel volop in de belangstelling. In simpele termen kan ‘grid computing’ worden omschreven als een verwerkingsmodel waarbij toegang tot ict-bronnen, zoals data, applicaties en computercapaciteit, wordt verkregen als een nutsvoorziening via het ‘Services Grid’. Denk ter vergelijking aan stroomvoorziening via het elektriciteitsnet. Kenmerkend voor ‘grid computing’ is dat ict-bronnen gedistribueerd zijn over het ‘grid’, het internet, en dat deze bronnen niet het eigendom behoeven te zijn van de organisatie die er gebruik van maakt. In dat geval vindt de dienstverlening plaats middels een elektronische voorziening.
Afhankelijk van de wijze waarop het ‘grid computing’-model wordt toegepast, is een relatie te leggen met ontwikkelingen die al gaande zijn in de ict-industrie en op zichzelf niet allemaal nieuw zijn, en die elkaar deels overlappen.
Webservices
Het concept van webservices is gebaseerd op protocollen zoals soap, wsdl en uddi, en ondervindt een brede acceptatie. Het beoogt op relatief eenvoudige wijze diensten, in de vorm van software-functies, vanuit een applicatie te kunnen aanroepen, ongeacht of deze diensten zich bevinden op servers binnen of buiten de eigen organisatie. Hierdoor is het mogelijk bedrijfsprocessen van de eigen organisatie te integreren met die van bijvoorbeeld toeleveranciers en afnemers (integrated e-business). Op deze wijze zijn ook diensten aan te roepen van service-providers, die deze aanbieden als een elektronische voorziening (e-utility).
Het webservices-concept wordt steeds meer gezien als het universele middel om elke willekeurige ict-bron te benaderen, dus niet alleen applicaties en data maar ook hardware, zoals verwerkingscapaciteit en ruimte voor de opslag van data. De toepassing van webservices kan gezien worden als de volgende fase in de evolutie van het Web, het Services Web, en de basis vormen voor versnelde acceptatie van het ‘grid computing’-model.
Metacomputing
Een ontwikkeling die, tot voor kort met name vanuit de wetenschappelijke wereld, veel aandacht krijgt, is een vorm van gedistribueerde gegevensverwerking die veelal aangeduid wordt met ‘metacomputing’. Hierbij zijn individuele, heterogene computersystemen met elkaar verbonden via een lan of wan, het ‘grid’, waarbij het geheel zich gedraagt als een enkel virtueel systeem. Bronnen als applicaties, data en computercapaciteit kunnen zo op een dynamische wijze worden gedeeld.
Aanvankelijk werden binnen de wetenschappelijke- en onderzoeksomgeving de mogelijkheden van ‘metacomputing’ vooral toegepast voor gedistribueerd ‘supercomputing’. Hierdoor kon verwerkingscapaciteit tussen organisaties gedeeld worden ten behoeve van applicaties op gebieden als fysica, astronomie en bio-informatica. Bepaalde toepassingen lenen zich ervoor om de gegevensverwerking te verdelen over meerdere processoren die elk parallel een deel van de verwerking op zich nemen. Deze vorm van gegevensverwerking is bepaald niet nieuw en wordt sinds jaren toegepast door gebruik te maken van speciale parallelle computersystemen en, meer recent, door gebruik van standaardhardware, geconfigureerd als cluster.
Een voorbeeld van parallelle gegevensverwerking op basis van metacomputing dat velen kennen, is Seti@home, een project waarbij gezocht wordt naar tekenen van buitenaards leven. Grote hoeveelheden signalen, die via een radiotelescoop worden ontvangen, moeten worden geanalyseerd. Door de totale hoeveelheid te verwerken data op te delen in afzonderlijke brokken, kunnen deze geheel autonoom op een willekeurige pc worden verwerkt. Wanneer een pc-gebruiker zich vrijwillig aanmeldt als participant in het project, zal -wanneer zijn pc inactief is- de beschikbare capaciteit gebruikt worden om data voor Seti te analyseren. Op deze wijze kan de totale hoeveelheid verwerkingscapaciteit verdeeld worden over miljoenen pc’s.
Dit voorbeeld geeft aan dat niet elk probleem zich leent voor deze vorm van metacomputing, ook wel pc-‘grid computing’ genoemd. Vergelijkbare toepassingen kunnen gevonden worden op gebieden als moleculaire analyses ten behoeve van kankeronderzoek, het analyseren van eiwitstructuren, financiële analyses, het valideren van complexe chipontwerpen, het renderen van 3d-animaties, enzovoort.
Waar het gebruik zich aanvankelijk beperkte tot niet commerciële toepassingsgebieden, bieden nu ict-bedrijven als Entropia, United Devices en Data Synapse technieken en diensten om pc-‘grid computing’ te ondersteunen binnen een eigen organisatie of door gebruikmaking van verwerkingscapaciteit daarbuiten. In het laatste geval zijn gegevensbeveiliging en een methode om participanten te vergoeden noodzakelijk.
De mogelijkheid tot commercieel gebruik van pc-‘grid computing’ wordt geïllustreerd door het plan van NTT Data Corporation. Dat bedrijf wil in Japan deze vorm van metacomputing als dienst gaan aanbieden door gebruik te maken van miljoenen pc’s met een breedbandaansluiting.
Efficiënter gebruik
De hierboven beschreven vorm van metacomputing wordt vaak aangeduid met ‘lichte metacomputing’ (lightweight metacomputing), omdat de verdeling van werk over de verschillende systemen meestal gebeurt op basis van de beste prestatie (best effort). Er is geen gedistribueerde ‘resource manager’ die kennis heeft van beschikbare bronnen op individuele systemen, en op basis daarvan de verdeling van taken dynamisch optimaliseert. Voor sommige toepassingsgebieden kan het nodig zijn dat specifieke bronnen worden ingezet ten behoeve van capaciteit. Het is dan noodzakelijk om centraal bij te houden welke resources waar en wanneer beschikbaar zijn. Technieken die dit mogelijk maken, worden steeds meer toegepast bij applicaties die capaciteit of systeemfuncties vragen welke niet binnen de eigen organisatie beschikbaar zijn. Naast producten van leveranciers als Sun en Avaki is de meest gebruikte software om deze ‘zware metacomputing’ mogelijk te maken -vooral in de wetenschappelijke wereld- de Globus Toolkit. Deze ‘open source’ ontwikkeling is de ‘middleware’ die meerdere systemen kan verenigen tot een virtueel systeem, ongeacht het onderliggende hardware/software-platform.
Voor de wetenschappelijke wereld is dit metacomputing-model synoniem met ‘grid computing’. De oorzaak ligt in het feit dat de term ‘grid computing’ werd geïntroduceerd door de wetenschappers Foster en Kesselman in hun boek The Grid, blueprint for a new computing infrastructure. Hierin wordt met name ingegaan op wetenschappelijke toepassingen en ‘zware metacomputing’. Deze mogelijkheden hebben in de media veel aandacht gekregen waardoor ook buiten de wetenschappelijke wereld veelal het beeld ontstaan is dat ‘grid computing’ vooral betrekking heeft op gedistribueerde ‘supercomputing’. Dit is echter een misvatting. Een infrastructuur zoals geboden door de Globus-software biedt de mogelijkheid om toegang te krijgen tot gedistribueerde ict-middelen in het algemeen, ook buiten het domein van ‘supercomputing’.
Daarom is ook buiten de wetenschappelijke- en onderzoekswereld een toenemende belangstelling ontstaan voor mogelijkheden zoals die geboden worden door de Globus Toolkit. Dit wordt onderstreept door het feit dat vrijwel alle ict-leveranciers die zich bezighouden met ‘grid computing’ het gebruik van de Globus-software ondersteunen of dit op korte termijn zullen doen. Toepassing van ‘zware metacomputing’ biedt de mogelijkheid om op dynamische wijze gebruik te maken van gedistribueerde en heterogene ict middelen, ongeacht het applicatiedomein.
Toepassing van het metacomputing-concept kan binnen een organisatie leiden tot een efficiënter gebruik van ict-bronnen, zeker daar waar sprake is van gedistribueerde datacenters. Daarnaast zal dit concept een belangrijke rol spelen bij de ontwikkeling van een nieuwe generatie elektronische voorzieningen.
‘Peer-to-peer’
Vaak wordt de term ‘metacomputing’ in relatie gebracht met ‘peer-to-peer computing’ (p2p). Hoewel p2p-computing al jaren bestaat, wordt er nog steeds discussie gevoerd over de vraag wat het nu wel en wat het niet is. Zonder in te gaan op de details rond deze vraag, is de essentie van p2p dat elk platform, van mainframe tot pc tot Playstation, zich kan gedragen als zowel een client als een server. Een wel zeer bekende implementatie van p2p-computing is Napster. Hierbij kan elk platform zich manifesteren als een ‘content server’. De relevantie van Napster is niet de gebruikte technologie, maar het feit dat gebruikers op grote schaal gebruik maakten van een vorm van ‘grid computing’.
Mede als gevolg van het fenomeen Napster zijn tal van commerciële producten ontstaan die gebruik maken van het p2p-concept en die gezien kunnen worden als een invulling van het begrip ‘grid computing’. Voorbeelden zijn de producten van Groove Networks en Next Page.
Bij het elektriciteitsnet (de ‘power grid’) zien we dat energievoorziening niet uitsluitend meer plaatsvindt middels mega-centrales maar ook door middel van windmolens en zonnepanelen, mini- of micro-centrales. In het geval van de ‘computing grid’ kan een elektronische voorziening ook een pc zijn.
Elektronische voorzieningen
Hoewel het idee om ict-voorzieningen beschikbaar te stellen als een nutsvoorziening, zoals voor water, gas en elektriciteit, bepaald niet nieuw is, blijkt er nu een hernieuwde belangstelling voor dit concept te bestaan. Er is een aantal redenen aan te geven waarom het concept van elektronische voorzieningen nu daadwerkelijk geaccepteerd lijkt te worden.
De kosten en beschikbaarheid van ict-kennis vormen voor veel organisaties een drempel om gebruik te kunnen maken van geavanceerde e-businessmogelijkheden. Nieuwe diensten kunnen daardoor niet, of niet tijdig genoeg, beschikbaar gesteld worden.
De investeringen van een organisatie om een robuuste en schaalbare e-businessinfrastructuur te implementeren kunnen zeer hoog zijn, en met name voor het mkb een belemmering vormen om concurrerend te opereren.
Veel bedrijven zien het beheer van ict-voorzieningen niet langer als onderdeel van de kernbusiness. Ze willen dit, op basis van gebruik, betrekken van een e-utility, mits dit gebeurt op een betrouwbare wijze en tegen lagere kosten.
Voorts komt benodigde netwerkbandbreedte nu, tegen redelijke kosten, beschikbaar.
Het gebruik van ict-standaarden is een absolute voorwaarde voor een succesvolle implementatie van elektronische voorzieningen. Het ontstaan van standaardprotocollen op het gebied van webservices, metacomputing, p2p, enzovoort, maakt dit mogelijk.
Het is te verwachten dat elektronische voorzieningen ontstaan die een grote verscheidenheid aan diensten zullen leveren. Zo zal het mogelijk zijn standaardtoepassingen te benaderen, zoals we dat nu kennen van ‘applicatie service providers’, maar ook om bedrijfsspecifieke toepassingen te laten ‘hosten’ door een elektronische voorziening. Naast het verschaffen van toegang tot applicaties en software-infrastructuren zullen elektronische voorzieningen ook fysieke bronnen ter beschikking kunnen stellen, zoals processorcapaciteit en faciliteiten voor gegevensopslag.
Tal van ict leveranciers als HP, IBM en Sun, maar ook nieuwkomers als Jareva en Ejasent, ontwikkelen infrastructuren om elektronische voorzieningen op een betrouwbare, schaalbare en kosteneffectieve manier te kunnen implementeren. Hierbij worden grote verzamelingen van hardwarebronnen, eventueel gedistribueerd over een ‘computing grid’, beheerd als een enkel virtueel computersysteem. Benodigde bronnen voor individuele applicaties of gebruikers worden dan al naar gelang de behoefte dynamisch toegekend.
Veel partijen in de ict-industrie verwachten dat elektronische voorzieningen in de komende jaren zullen zorgen voor een radicale verandering in de wijze waarop organisaties gebruik zullen maken van ict. De organisatie die zijn gebruikte ict-voorzieningen in eigendom heeft, zal in toenemende mate plaatsmaken voor een organisatie die voorzieningen inkoopt bij een elektronische voorziening op basis van gebruik. De economische gevolgen van deze verschuiving voor zowel leveranciers als gebruikers zullen indringend zijn.
Totaal nieuw model
Voor elke organisatie geeft toepassing van ‘grid computing’ een nieuwe dimensie aan internet en het Web, met alle technische en economische gevolgen van dien.
‘Grid computing’ kent vele facetten en niet elk daarvan is op dit moment volledig ingevuld. Het is echter een misvatting om te veronderstellen dat ‘grid computing’ in welke vorm dan ook op dit moment niet toepasbaar is buiten de wetenschappelijke wereld, mede gegeven het aanbod van producten en diensten van ict-leveranciers op dit gebied.
Evenals het Web is het concept van ‘grid computing’ontstaan in de wetenschappelijke wereld. Het is daarom zaak dat de industrie gebruik maakt van de enorme kennis en ervaring die inmiddels door de universitaire en wetenschappelijke wereld is opgebouwd. Samenwerking zal leiden tot een breed draagvlak voor verdere ontwikkeling en zal de individuele organisatie maar ook de economie op grotere schaal ten goede komen.
Ian Foster van het Argonne National Laboratory en de Universiteit van Chicago vatte het in een toespraak tijdens de World Wide Web Conference 2002 als volgt samen:
"What the new scientific and business computing environments share, is the need to manage dynamic, distributed infrastructures, services and applications."
Wereldwijd worden breedbandnetwerken geïmplementeerd waarbij het vaak moeilijk blijkt de toepassingen te identificeren die dergelijke netwerken rechtvaardigen.
In de industrie heerst de algemene overtuiging dat ‘grid computing’, in al zijn verscheidenheid, deze netwerken niet alleen zal vereisen maar ook rechtvaardigen.
Naar verwachting zullen verschillende technieken zoals p2p, webservices, metacomputing, elektronische voorzieningen en de Globus-functies geïntegreerd worden, waarbij uiteindelijk een totaal nieuw verwerkingsmodel ontstaat (Services Grid). Het internet zal ons toegang geven tot informatie, toepassingen en hardwarebronnen op een transparante wijze, zoals we nu webdocumenten benaderen.
Bert Dekkers, projectontwikkelaar Telematica Instituut