De Engelse regering steunt op dit moment een academisch onderzoeksprogramma naar een opvolger van het Internet, ’the Grid’ genaamd. Waarschijnlijk doen andere Europese regeringen hetzelfde. Belangrijkste doelstelling is het ontwikkelen van een netwerk voor het uitwisselen van gigantische hoeveelheden gegevens voor de wetenschappelijke gemeenschap in Europa en hopelijk ook daarbuiten.
Uiteindelijk hoopt men natuurlijk dat deze ontwikkeling op lange termijn leidt tot voordelen voor de gehele Internetgemeenschap en ook voor elektronische handelstoepassingen. Men noemt het, heel toepasselijk, ‘e-science’.
De eisen die wetenschappers aan hun netwerk stellen zijn in principe gelijk aan die van andere kenniswerkers, maar de schaal is van een andere orde. Met de huidige supercomputers kost het twee uur om één microseconde DNA-ontwikkeling te simuleren. En de Cern-reactoren genereren genoeg data om elk jaar een miljoen CD’s te vullen, zelfs bij een compressiefactor van 10:1! Ook weerkundige gegevens kennen een dergelijke massale omvang.
Het probleem is dat het erg kostbaar is om al deze gegevens te verzamelen. En omdat er specialistische apparatuur nodig is, kan de opslag alleen lokaal plaatsvinden. Om zulke experimenten levensvatbaar te maken, moeten de gegevens aan meerdere gebruikers ter beschikking worden gesteld, zodat de kosten kunnen worden gedeeld. Dit betekent dat men de gegevens vanaf gedistribueerde locaties moet ontsluiten, waarbij de benodigde bandbreedte de capaciteit van het huidige Internet met een orde van grootte overschrijdt. Het Internet zal zich wel blijven ontwikkelen, maar niet op deze schaal. Het is dus best mogelijk dat de eisen die de wetenschap aan de infrastructuur stelt veel sneller tot een beter Internet zullen leiden dan de eisen van de zakelijke markt.
Een voor de hand liggende constatering is dat ontwikkelingen als deze een positief gevolg zullen hebben voor de toch al onvermijdelijke structurering van het Internet. Hierdoor komen er gratis diensten van hoge kwaliteit, uitgebreide commerciële standaarddiensten en nieuwe superdiensten. Diensten die allemaal op een beheerste manier met elkaar verbonden zullen worden en verschillende niveaus van service zullen bieden. Voice-over-IP (Voip) biedt op korte termijn echter al zoveel voordelen dat netwerken van lage kwaliteit mogelijk helemaal zullen verdwijnen. Hoe een systeem van onderling gekoppelde langzame en snelle netwerken zal worden doorbelast en hoe hoog de tarieven zullen zijn, is moeilijk te voorspellen.
De eisen die wetenschappelijke toepassingen aan de technologie stellen kunnen diezelfde technologie dus een grote impuls geven. Dat is in ieders voordeel. De vereiste rekenkracht is enorm, maar dat geldt ook voor de verwachte technologische vooruitgang. Wetenschappelijke toepassingen maken sinds jaar en dag gebruik van vectorverwerking, waarbij een hele machine voor één applicatie wordt gebruikt. Commerciële systemen worden daarentegen hoofdzakelijk gebruikt voor transactieverwerking, waarbij duizenden kleinere ‘applicaties’ worden gebruikt. Hierdoor zijn er verschillende ontwikkeltrajecten voor technisch-wetenschappelijke en commerciële systemen. Op dit moment zijn kennisgeoriënteerde applicaties zowel van belang voor wetenschappers als voor zakelijke gebruikers. Er zal tussen beide sporen dus een flinke kruisbestuiving plaatsvinden. Hetzelfde geldt voor opslagtechnieken. Het volume aan gegevens in informatiesystemen is gigantisch, maar veel belangrijker is het inzicht dat metagegevens essentieel zijn om zulke gegevenspakhuizen praktisch en flexibel te kunnen gebruiken. Ook hier kunnen wetenschappelijke gebruikers ons de weg wijzen. De zakelijke IT-wereld is immers met handen en voeten gebonden aan relationele technologie.
De hoogste eisen worden waarschijnlijk gesteld aan communicatietechnologie. De kerntechnologieën zullen beter gebruik moeten maken van glasvezel. Dit is een natuurlijke ontwikkeling. Veel moeilijker is de ontwikkeling van switches die dezelfde capaciteit hebben als de communicatieverbindingen, en die tegelijkertijd gebruikmaken van standaarden die onderlinge koppelingen mogelijk maken. Dat laatste kan problematisch zijn, zoals veel bedrijven die routers van verschillende leveranciers aan elkaar wilden koppelen al hebben ondervonden. Als trage routers al dergelijke problemen opleveren, wat moeten we dan verwachten van multigigabit switches? Al deze ontwikkelingen vinden overigens ‘achter de muur’ plaats; de gebruiker zal er in theorie niets van merken. Maar dat zal anders zijn als de geleverde diensten onbetrouwbaar worden vanwege interne netwerkproblemen.
De andere ontwikkeling op communicatiegebied is draadloze communicatie. Deze technologie zal echter geen rol spelen bij het transporteren van gigantische hoeveelheden gegevens, al zijn er snelheden van 1Mbit per seconde voorspeld. Daarom moet de architectuur van de systemen die op het netwerk zijn aangesloten, worden herzien. Het huidige gedistribueerde model is een gevolg van de beperkte bandbreedte. Databases worden zo dicht mogelijk bij de gegevensbron geplaatst, wat voor locale gebruikers prima is. Maar de volgende generatie concepten omvat zowel gegevens die op meerdere punten worden vergaard, als gebruikers die zich op verschillende locaties bevinden. Dit roept een aantal architecturale vragen op. Wellicht moet er een nieuwe aanpak komen, waarbij alle gegevens op één punt worden verzameld en waarbij verschillende applicatieservers via een hogesnelheidsverbinding aan elkaar worden gekoppeld – zowel lokaal als op afstand. Gebruikers worden op de applicatieserver aangesloten via een langzamer netwerk, dat lijkt op het huidige Internet. Dit is ook het pad voor mobiele gebruikers, die gebruik kunnen maken van draadloze technologie om de applicatieserver te bereiken, maar geen behoefte hebben aan de hoge bandbreedte die nodig is tussen de applicatieserver en de gegevens.
Martin Healey, pionier ontwikkeling van op Intel gebaseerde computers en c/s-architectuur. Directeur van een aantal IT-bedrijven en professor aan de Universiteit van Wales.