Razendsnelle veranderingen in de informatiebehoefte van organisaties stellen hoge eisen aan de aanwezige IT-infrastructuur. IT-managers, netwerk- en systeembeheerders worden steeds meer geconfronteerd met vragen die impact hebben op de beschikbare capaciteit van alle componenten binnen deze infrastructuur. Volgens consultants Ed Stumpel en Paul Eggert is modelleren in combinatie met simulatietechnologie een zeer nuttig instrument voor beheer en planning van netwerk- en systeemcapaciteit.
Organisaties leunen steeds sterker op de IT-dienstverlening, ondermeer uit het oogpunt van een efficiënte en effectieve bedrijfsvoering. De IT-organisatie staat onder voortdurende druk om meer aandacht en inspanning te besteden aan het verkrijgen van inzicht in de tevredenheid bij de klant over de geleverde diensten, en om deze te realiseren of te vergroten. In toenemende mate wordt de IT-organisatie geconfronteerd met hooggespannen verwachtingen van afnemers. Vroeger werden de diensten bepaald door de aanbodzijde, met als leidraad de in hoog tempo veranderende technologische ontwikkelingen (technology push). Tegenwoordig dient de IT-organisatie zich steeds meer te richten op de informatiebehoefte van haar afnemers (information pull). Het gebruik van moderne informatietechnologie is nu eenmaal een middel en geen doel.
De IT-dienstverlening stoelt op de infrastructuur. Deze bestaat uit het geheel van hardware, software, data- en telecommunicatie-faciliteiten plus de daarmee samenhangende procedures en documentatie, zie figuur 1. Het samenspel van al deze componenten en de daaruit voortvloeiende consequenties voor systeem- en netwerkcapaciteit valt steeds moeilijker te voorspellen. Het plannen en beheren van de IT-dienstverlening vormt een probleem, maar is essentieel voor het behalen van de (hopelijk) vastgelegde verwachtingen van de afnemers ten aanzien van de kwaliteit, kosten en baten van IT.
Het samenkomen van computer- en communicatietechnologie in de laatste twee decennia heeft geleid tot een enorme groei van netwerken en gedistribueerde computersystemen. Tegenwoordig worden IT-infrastructuren gekarakteriseerd door hun omvang en complexiteit. Ze lopen uiteen van simpele kantoornetwerken met enkele applicaties, via bedrijfsnetwerken met vele applicaties verspreid over multiprocessor-computersystemen tot wereldwijde netwerken met duizenden gebruikers en dito applicaties.
Door deze ontwikkelingen wordt het steeds moeilijker om adequate voorspellingen te doen over de benodigde capaciteit van de IT-infrastructuur. De organisatie vertrouwt – noodzakelijkerwijs – meer en meer op de onderliggende informatietechnologie voor het bereiken van haar strategische doelen. Door deze afhankelijkheid is een juiste invulling van de IT-infrastructuur van levensbelang. De hoge eisen betreffende flexibiliteit, schaalbaarheid, prestaties, integratie en beschikbaarheid van de informatie-technologie moeten daarop afgestemd zijn.
Veranderende informatiebehoefte
Er zijn verschillende oorzaken aan te wijzen voor de toegenomen vraag naar meer netwerk- en computercapaciteit. De voortdurend veranderende omgeving waarbinnen organisaties moeten functioneren, heeft ertoe geleid dat zij zich ontpoppen tot ‘veelvraten’ van informatie. Hoe sneller trends worden gesignaleerd, des te sneller kan erop worden ingespeeld en des te groter de is initiële voorsprong op de concurrentie. Mede door toedoen van het invoeren van client/server-architecturen hebben – naast de al langer bestaande dataservers – nu ook begrippen als datamining, groupware, werkstroom-beheer, imaging, multimedia en de laatste tijd ook Internet hun intrede gemaakt binnen organisaties. Deze toepassingen zorgen ervoor dat de vergaarbak aan vast te leggen of vastgelegde informatie afdoende wordt, respectievelijk kan worden gevuld. De gevolgen van invoering van een of meer van deze toepassingen laten zich echter moeilijk inschatten, laat staan het doorrekenen op consequenties voor de organisatie èn de IT-infrastructuur.
Op dit moment wordt al gemiddeld 30 procent van het (software)budget besteed aan netwerk- en systeembeheer voor de bestaande IT-architectuur. Met de invoering van steeds meer decentrale systemen neemt de vraag naar goede beheer- en planning-tools toe. De gebruikers zijn over het algemeen ontevreden over de huidige reactieve netwerk- en systeembeheertools. Met een geschatte jaarlijkse groei van zo’n 50 procent tot circa 3 à 4 miljard dollar rond de jaarwisseling (bron IDC) bestaat er duidelijk behoefte aan een ‘modelleer- en simulatie’-instrument. Die kan nieuwe netwerken, computersystemen of voorgestelde veranderingen aan bestaande IT-infrastructuren evalueren voordat men beslist over aanschaf en/of installatie.
Modelleren en simuleren
Capaciteitsplanning van IT-infrastructuren betreft het opstellen van een plan dat vanuit een bestaande en verwachte informatiebehoefte aangeeft welke middelen er binnen een beoogde tijd nodig zijn. In een capaciteitsplan wordt op basis van groeiverwachtingen ondermeer de in de toekomst benodigde netwerk- en systeemcapaciteit vastgelegd. Het plan, dat dient te passen binnen de informatiestrategie van een organisatie, bevat belangrijke informatie over de investeringsplannen. Verder omvat het een analyse van de huidige situatie, voorspellingen over het toekomstige gebruik en een aantal doorgerekende scenario’s.
Een van de belangrijkste stappen binnen capaciteitsplanning is het modelleren. Met behulp van deze techniek kunnen een aantal scenario’s voor het capaciteitsplan worden onderzocht. Voor het doorrekenen van de scenario’s zijn de modellen sterk afhankelijk van allerlei gegevens, met name de voorspellingen omtrent de ‘load’, het beslag op de resources alsmede de specificaties van de verschillende hard- en software-componenten en de netwerk-structuur.
Evaluatie netwerkprestaties
Bestaande methoden voor het evalueren van netwerkprestaties zijn directe metingen, wiskundige analyses en/of discrete event-simulatie.
Directe metingen. Metingen zijn de meest directe manier voor het evalueren van netwerkprestaties. Ze hebben echter een aantal significante beperkingen. Er is veel tijd mee gemoeid, ze zijn kostbaar en beperkt tot bestaande netwerken. Veel leveranciers leveren op dit moment hulpmiddelen voor het meten en monitoren van het netwerk als onderdeel van de netwerk-software. Deze gegevens kunnen overigens in veel gevallen als input worden gebruikt voor het construeren van nauwkeurige simulatiemodellen.
Wiskundige analyse. Analyses die zijn gebaseerd op wiskundige modellen leveren snel resultaat en verstrekken diepgaand inzicht in de relatie tussen netwerkprestaties en ontwerpparameters. Een belangrijk bezwaar bij het ontwikkelen van wiskundige modellen blijft het feit dat uitgegaan moet worden van veel aannames die beperkingen opleggen. In het algemeen zijn wiskundige modellen moeilijk te ontwikkelen, tenzij men uitgaat van sterk vereenvoudigde en ideale situaties. Zo’n afgeslankt wiskundig model is dan ook meestal niet geschikt voor de complexe applicaties binnen een fijnmazig netwerk.
Discrete event-simulatie. Door het ontbreken van aannames geeft deze methode een hogere nauwkeurigheid dan de wiskundige analyse. Realistische netwerk-kenmerken zoals bijvoorbeeld ‘event generation’, statistiek, prestatieberekening, netwerk-respons worden geëmuleerd door een simulatieprogramma. Functies hierin zijn onder andere communicatie-verbindingen, buffers, toegangsstrategie en netwerk-controlestructuren. Tijdens de uitvoering van het programma worden netwerkgebeurtenissen als aankomst, transmissie, routering en vertrek van pakketten, foutcondities als pakketverlies of verminking, en link/node-uitval en herstel nagebootst. De benadering voor het modelleren van gedistribueerde computersystemen is fundamenteel identiek aan die voor het modelleren van netwerken. Netwerkbeheerders zijn geïnteresseerd in de stroom van pakketten met informatie. Netwerkprestaties worden gemeten in termen van pakketvertraging, doorvoersnelheid en communicatie-resources (bijvoorbeeld trunks). De systeembeheerder heeft belang bij de stroom van transacties binnen het systeem. De systeemprestatie is afhankelijk van transactie-gerelateerde doorvoersnelheid, de gemiddelde tijd voor het afwikkelen van een transactie en het gebruik van computer-resources. In beide gevallen werken de ontwerpers met discrete event-systemen en delen eenzelfde doel: allocatie van resources aan verschillende entiteiten (gebruikers, processen, transacties) om te verzekeren dat prestatiedoelstellingen binnen gegeven capaciteitsbeperkingen worden gehaald.
Uit bovenstaande overwegingen komt de simulatietechnologie als beste oplossing tevoorschijn voor het evalueren van netwerk- en systeemprestaties.
Simulatiemethodiek
Simulatietechnologie kan een significante bijdrage leveren aan beheer en planning van IT-infrastructuren
Ze richt zich met name op de volgende vier zaken.
– Het nauwkeurig voorspellen van de ‘end-to-end’-prestatie van bedrijfskritische applicaties en de effecten ervan op het onderliggende netwerk bij een toename van het aantal gebruikers of bij het in gebruik nemen van nieuwe applicaties.
– Het mogelijk maken van een nauwkeurige planning en van een schaalbare analyse van op real-life gebaseerde metingen. Dit komt in de plaats van het ‘op goed gevoel’ gebruik maken van de eigen ervaring of van de ervaring van collega’s in een vergelijkbare situatie.
– Het doorrekenen en vergelijken van diverse what if-scenario’s zonder grote testbudgetten.
– Het optimaliseren van kosten- en prestatiefactoren.
Het virtuele model voor de simulaties moet echter nog worden gebouwd. De resultaten van de simulaties moeten antwoord geven op de vragen betreffende capaciteit. Daarvoor dienen eerst alle relevante componenten binnen de IT-infrastructuur in kaart te worden gebracht, zie figuur 2. Daarna wordt de werkwijze gehanteerd zoals is afgebeeld in figuur 3.
Het samenstellen van een basis-netwerkmodel dient als eerste te geschieden. Met behulp van grafische netwerk-‘editors’ wordt een representatieve weergave van het huidige netwerk geproduceerd. Ter ondersteuning wordt de netwerk-topologie grondig bestudeerd en worden de relevante netwerksegmenten geïdentificeerd. Na de bepaling van de topologie vindt de bepaling van de karakteristieken van de verschillende netwerkcomponenten plaats. De configuratie-instellingen van switches, routers, servers en andere onderdelen worden verzameld en toegevoegd aan het model. Een belangrijk onderdeel van de eerste fase is het toevoegen van real life-data van elk netwerksegment aan het model. Deze data worden bijvoorbeeld verzameld door netwerk-analyzers zoals sniffers en probes.
De volgende fase – applicatiemodellering – vergt het bestuderen en vastleggen van de bedrijfskritische applicaties in een geconditioneerde omgeving. Voor het weergeven van de complexe verkeerspatronen van de werkelijke netwerkomgeving staan verschillende benaderingen voor verkeersgeneratie ter beschikking. Een invoermogelijkheid betreft de gefilterde real life-data vanuit de bovengenoemde netwerk-analyzers (analyzer based traffic). Deze methode wordt vaak toegepast omdat applicatiekarakteristieken veelal niet beschikbaar zijn. Een andere, verfijndere, maar ook meer tijdrovende benadering is het vertalen van gebruikersgedrag naar een applicatie-model (application based traffic). Zaken als client/server-interactie, ‘disk access’ en cpu-belasting worden daarbij meegenomen. Een eenvoudige en snel toepasbare verkeersgenerator is de zogenaamde statistical bursty generator. Deze genereert berichten met een variabele of vaste lengte en op vaste of variabele tijdstippen.
Net als bij het fysieke netwerk kan het in de voorgaande fasen in kaart gebrachte virtuele netwerkmodel worden afgebeeld op het OSI- model (figuur 4).
Nadat zowel het netwerkmodel als de applicatiestroom met bijbehorende verkeersintensiteit is vastgelegd, komt de analysefase aan bod. Afhankelijk van de geformuleerde doelstellingen worden nu de verschillende simulatie-runs gestart en doorgerekend. Met behulp van de automatisch gegenereerde grafieken worden de resultaten van de simulatie-runs geïnterpreteerd. De concrete uitkomsten van modelleren en simuleren worden ten slotte vastgelegd in een rapport.
Voordelen
Het met behulp van de computer ontwerpen en modelleren van netwerken (Computer aided network design) in combinatie met simuleren biedt een aantal belangrijke voordelen. Het stelt netwerkontwerpers in staat hun netwerken en updates van het netwerk te modelleren ‘in software’, voordat geld wordt geïnvesteerd in de uiteindelijke hard- en software-produkten. Bovendien is het effect van mogelijke veranderingen in bijvoorbeeld het aantal gebruikers of van intensivering van het netwerkverkeer op de prestaties van het netwerk te voorspellen. Zo zijn de ontwerpers voorbereid op de toekomst, werkend met het huidige netwerk.
Tot op heden zijn er geen mogelijkheden om nauwkeurige voorspellingen te geven over het gedrag en de werking van complexe computernetwerken. Daarom overdimensioneren ontwerpers de IT-infrastructuren. Het gevolg is dat men betaalt voor een meer dan benodigde bandbreedte en te veel systeem-capaciteit inzet. Desalniettemin ontstaan er knelpunten in delen van het netwerk die adequaat moeten worden opgelost.
Computer aided network design-systemen, in combinatie met simulatie, geven de controle over het netwerk terug aan ontwerpers en IT-managers. (Capaciteits)beslissingen kunnen worden genomen op basis van optimaal op de organisatiebehoefte ontworpen IT-infrastructuren met minder knelpunten en tegen geringere kosten.
Ed Stumpel en Paul Eggert zijn werkzaam bij Network Resource Consultants and Company