In een eerder artikel over voorspellend beheer en een optimale inzet van it-personeel worden wel argumenten aangedragen rondom het belang van voorspellend beheer, maar concrete voorbeelden worden er niet gegeven. Toch zijn het juist dit soort methodes en analyses die steeds belangrijker worden. Daarom wil ik langs deze weg het onderwerp wat verder uitdiepen en tegelijk wat meer handen en voeten geven.
Forecasting is een methode die ik veel tegenkom in de wereld van supply chain management. Het beoogd de toekomstige vraag uit de markt te bepalen zodat de inkoop van grondstoffen en de productiecapaciteit daar op afgestemd kan worden.
In de wereld van it wordt deze methode nauwelijks toegepast terwijl ik wel veel raakvlakken zie. Immers, met een beetje fantasie zijn de onderdelen van een it-infrastructuur te vergelijken met de machines in een productiestraat die samen zorgen voor de fabricage en assemblage van de producten (de applicaties) zoals geleverd aan de afnemers (de gebruikers). Met allemaal verschillende toeleveranciers.
Anders gezegd, neem een willekeurige it-operatie en er is sprake van een supply chain! Dus waarom dan niet dezelfde methode van management toepassen? De cijfers zijn immers beschikbaar dankzij de automatisering middels een scala aan beheer tools! Zeker als er gebruik gemaakt wordt van een hybride model met een eigen data center, outsourcing en cloud diensten zorgt forecasting ervoor dat je in een dergelijke supply chain de zaak onder controle houdt. Terwijl er tegelijkertijd behoorlijk wat kosten bespaard worden.
De berekeningen
Rekenkundig gezien is de verwerking van die cijfers geen probleem. In de beschrijvende statistiek zijn verschillende methodes en formules beschikbaar om iets te roepen over de toekomst. Waarbij er in veel gevallen ook iets gezegd wordt over de betrouwbaarheid van zowel de broncijfers als de gedane voorspellingen.
Het zijn vooral de regressie analyses die ondersteuning bieden aan een invulling van voorspellend beheer. De meest eenvoudige methode is die van lineaire regressie met een daaraan gekoppelde extrapolatie. Hierbij wordt er een gefingeerde, rechte lijn getrokken op basis van een bepaalde set meetwaardes uit het verleden.
Kortom, de methodes en formules zijn klaar voor gebruik. In andere vakgebieden worden die ook al jaren toegepast. Nu alleen nog een vertaalslag naar het it-landschap en de bijbehorende operatie!
Toepassingsmogelijkheden
De toepassingsmogelijkheden zijn legio. Ik geef hier een paar voorbeelden.
Zou het niet prachtig zijn als een helpdeskpakket management rapportages op zou leveren waaruit zoiets te lezen is als:
- Voor het volgende kwartaal verwachten we 23 procent meer incidenten met een gemiddelde oplostijd die 12 procent hoger ligt in vergelijking met het huidige kwartaal.
- Uitgesplitst naar de verschillende it-domeinen verwachten we 10 procent meer applicatie-incidenten, 8 procent meer netwerk incidenten en 5 procent meer server/storage incidenten.
- De kans dat dit werkelijkheid wordt is tenminste 90 procent.
Of stel je eens voor dat dit soort management rapportages ook beschikbaar zijn over de prestaties van de SaaS applicaties, zoals geleverd door bijvoorbeeld Microsoft met hun Office365:
- Voor het volgende kwartaal verwachten we dat de prestaties met 12 procent verbeteren in vergelijking met het huidige kwartaal.
- Uitgesplitst naar de verschillende applicaties verwachten we dat de prestaties voor Word met 3 procent verslechteren, die voor Excel met 8 procent verbeteren en die voor Outlook met 7 procent verbeteren.
- De kans dat dit werkelijkheid wordt is meer dan 80 procent.
Zoals te zien bieden de voorspellingen geen 100 procent zekerheid. Er is dus nog steeds een kans dat een beslissing niet het beoogde effect heeft. Wel is duidelijk hoe groot die kans is. Vervolgens is het aan de betreffende organisatie en diens managers om te bepalen of ze dat risico acceptabel vinden. En dus of ze zich in hun besluitvorming laten leiden door deze voorspellingen.
Een hele verbetering
Ondanks dat er geen zekerheid is, is het toch een hele vooruitgang in vergelijking met de huidige achteraf rapportages; zeker bij een it-operatie. In die rapportages wordt vooral gesproken over storingen in de afgelopen maand, om af te sluiten met de conclusie dat ondanks die storingen toch de afgesproken sla’s gehaald zijn. Iedere keer dat ik dit soort rapportages langs zie komen bekruipt mij het gevoel van ‘operatie geslaagd, patiënt overleden’.
Hoe dan ook, het gaat allemaal over zaken die in het verleden zijn gebeurd waardoor er niet meer bijgestuurd kan worden. Terwijl een vorm van forecasting en voorspellend beheer die mogelijkheid wel biedt!
Kostenbesparing en klanttevredenheid
Zeker it-dienstverleners zullen hun klanttevredenheid aanzienlijk zien stijgen bij een sturing op basis van dit soort voorspellende analyse,s doordat hun klanten nauwelijks meer verrast worden door grootschalige storingen. Terwijl er tegelijkertijd een kostenbesparing wordt gerealiseerd doordat ze met een hoge(re) mate van zekerheid kunnen voorspellen wat ze aan capaciteit nodig hebben binnen de verschillende disciplines in een it-operatie. Met een mooie kreet ook wel ‘right sizing’ genoemd.
Hetzelfde is ook van toepassing voor de verschillende vormen van cloud(-achtige) -diensten. Zij hebben hierdoor de mogelijkheid om zeer gericht en tijdig verwerkingscapaciteit op- en af te schakelen waardoor hun klanten nauwelijks meer verrast worden door grootschalige prestatie problemen. Dit voorkomt onnodig hoge investeringen in vergelijking met de spoedbestellingen zoals vandaag de dag vaak wel het geval is.
Leuke gedachte, alleen vind ik de uitwerking en de voorbeelden niet zo goed gekozen.
“Of stel je eens voor dat dit soort management rapportages ook beschikbaar zijn over de prestaties van de SaaS applicaties, zoals geleverd door bijvoorbeeld Microsoft met hun Office365”
Dit is typisch zo’n voorbeeld die niet handig is. Als de SLA een beschikbaarheid beloofd van 99,5% en als uit de regressie analyse blijkt dat dit realistisch is, dan is de zekerheid dat dit waarheid wordt 99,5%. Wat kun je met deze informatie als er een (grootschalige) storing uitbreekt?
Het enige houvast in deze IS het verleden en dan heeft de toekomst voorspellen op basis van informatie echt geen zin.
Toevallig gisteren een blog over gelezen die een mooi voorbeeld geeft : http://www.blogit.nl/the-battle-of-chancellorsville-of-het-gevaar-van-perfecte-informatie
“Voor het volgende kwartaal verwachten we 23 procent meer incidenten met een gemiddelde oplostijd die 12 procent hoger ligt in vergelijking met het huidige kwartaal.”
Deze informatie verzamelen, analyseren en aanbieden is een kostbare aangelegenheid. Een “botte” statistische analyse verliest snel zijn waarde als je geen intelligentie kan toevoegen. Als er een campagne draaide in de vorige periode dan verstoord deze de getallen als de campagne in de komende periode niet meer loopt. Als je dit soort facetten niet mee kan nemen is de kans op werkelijk goede informatie nihil.
Als het gaat om cloud computing heb je een aantal cliche standaard patronen: Voorspelbare groei, Voorspelbare pieken, onvoorspelbare pieken, cyclische pieken/dalen en “aan / uit” patroon.
Natuurlijk kun je wel berekenen hoeveel incidenten een nieuwe klant gemiddeld aanmaakt, maar dan moet je allerlei parameters meenemen zoals hoeveel gebruikers en dergelijke. Het kan allemaal wel, maar vaak is de oplossing duurder dan wat het oplevert.
Graag zou ik wat concrete voorbeelden lezen van bedrijven die iets dergelijks gedaan hebben, dan is het wat minder theorie en kan ik er niet zoveel mee en uiteindelijk moet je ook evalueren en dit weer getalmatig vastleggen, want als je systeem niet kan leren van zijn eigen voorspellingen wordt de kans op bruikbaarheid snel kleiner.
Misschien een klein voorbeeldje uit mijn eigen ervaring. Ik heb een systeem gemaakt voor het inplannen van trainingen. Na het realiseren van een online portal konden gebruiker zichzelf inplannen. Zo was er een rapport wat toonde hoeveel mensen nog nooit hadden ingelogd zodat je kon voorspellen welke mensen hun certificeringstermijn niet zouden halen. Wat bleek. Er waren gebruikers die weigerde het systeem te gebruiken en belde gewoon rechtstreeks naar de organisatie om zich aan te melden en daarmee was meteen de voorspellende waarde van dit rapport omzeep geholpen (en hebben we een nieuwe oplossing bedacht).
Punt is dat heel veel echt zinnige dashboards maatwerk is waarbij nogal wat domeinkennis komt kijken. Daarbij komt nog (maar daar kun je niets aan doen) dat er maar een zeer beperkte groep managers bestaat die rapporten kan lezen.
Dus ik begrijp je artikel, maar kan er niet zoveel mee.
Will,
Grappig dat de vorige opinie over voorspellend beheer je tot het schrijven gebracht heeft aangezien ik hier ook door geïnspireerd werd en mijn inzichten uit 2009 maar eens aan het afstoffen ben, hergebruik van oude ideeen is tenslotte de innovatie van vandaag.
Nu moet ik wel zeggen dat ik enigszins sceptisch ben betreffende statistieken, of zoals Godfried Bomans het al eens zei:”Een statisticus waadde vol vertrouwen door een rivier die gemiddeld één meter diep was. Hij verdronk.” Dit mede omdat in de ICT nog weleens sprake is van het Pareto-principe, de 80/20 regel waardoor effectief en efficiënt vaak door elkaar gehaald worden en de waarde zoals Henri het ook al zegt niet zo zeer in de cijfers zelf ligt maar de (domein) kennis om deze te interpreteren.
Want in lineaire omgevingen zou je inderdaad met extrapoleren een heel eind kunnen komen met voorspellend beheer en kan je bijvoorbeeld het capaciteitsmanagement hierop inrichten. En met het ‘badkuip’ model zou je ook een redelijke voorspelling kunnen doen over incidenten bij veranderingen, het stukje risico beheer binnen change management. Maar aangezien we tegenwoordig veel parallelle omgevingen hebben waar dingen sneller veranderen dan dat je er ervaring mee opgedaan hebt zul je dus toch verrast worden door de 20% onvoorziene verstoringen die 80% van de kwaliteit bepalen. Er zijn dan ook maar 2 zekerheden in het leven: belastingen (meetbaar) en de dood (lifecycle) en daar tussen in blijft het gewoon gokken.
Nu kunnen we proberen er een ‘educated guess’ te maken door trends te gaan zoeken en deze te monitoren zoals bijvoorbeeld de Telco’s doen met DPI maar dat blijft niet meer dan een ‘early warning’ systeem. En soms zorgen (on)conventionele ideeën van buitenstaanders dan ook voor betere inzichten dan de iteratieve consensus onder experts zoals bijvoorbeeld met de occulte Delphi methode want een fool met een tool blijft nog steeds een fool. Naast de opinie over voorspellend beheer zie ik ook een trend opkomen van ‘single stack’ oplossingen in de vorm van engineered systemen omdat de huidige generatie IT-ers gewend is dat alles direct vanuit de doos werkt. En dus hebben we mobiliteit zonder dat we onder de motorkap kijken waardoor er ook weer vastlopers te verwachten zijn. Dit omdat niemand meer weet hoe je het oliepeil moet controleren, hoewel sommige dat dus wel proberen met idee van Big Data.
@Henri en Ewout:
Later volgt een meer inhoudelijke reactie – maar voor nu:
Er wordt een negatief oordeel geveld over een werk- en denkwijze dat voor een IT landschap nog niet beschikbaar is. Terwijl het in vele andere werkgebieden als best-practices wordt gezien.
Maar hoe kan je nou weten dat het niet werkt?
Dat je er niks mee kan – allez – is in te komen. Het heeft bij mij ook even geduurd voor ik het nut ervan in zag!
Een iets andere zienswijze op het gemaakte vergelijk:
Binnen een productieproces is de supply chain van groot belang om te kunnen produceren. Hapert deze, dan valt de productie stil en kan er een fikse kostenpost ontstaan. Dit proces, inclusief de supply chain wordt gezien als kernactiviteit en heeft daarmee de juiste management-aandacht.
IT wordt in een groot aantal bedrijven gezien als ondersteunende dienst, vaak zelfs kostenpost.
In de kernactiviteiten wil men misschien nog wel investeren, maar bij de kostenpost moeten de kosten liefst nog verder omlaag. Als men, op basis van dit voorspellend beheer, de kosten verder kan reduceren zal men dat maar al te graag doen. Dit kan leiden tot uitgeknepen SLA’s.
Ergo, ik ken gevallen waarbij de SLA’s afgestemd zijn op de de ene gebruikersgroep binnen de organisatie, waardoor een andere gebruikersgroep haar werk niet optimaal kan doen. (een productie-afdeling heeft nu eenmaal andere IT behoeften dan de kantoorafdeling, welke weer andere behoeften heeft dan de R&D afdeling).
Managen op basis van getallen en statistieken is zeer gevaarlijk in mijn ogen als je het verhaal achter de getallen niet kent.
@ Ewout & Henri
Als aanvulling op mijn eerdere reactie:
Natuurlijk is het zo dat blind varen op cijfers nooit een goede is – helemaal eens – een context bij cijfers is een must!
Alleen, wat heb je aan een proces met SLA’s waarbij het enkel mogelijk is om achteraf vast te stellen dat die niet gehaald zijn?
Bijsturen kan al niet meer – het is immers gebeurd.
Vervolgens is het voer voor de juristen in hoeverre een eventuele bonus/malus regeling van toepassing is.
Eigenlijk van de zotte – toch? Zeker als er alternatieven zijn die in andere takken van sport al heel normaal zijn.
Overigens zijn er ook regressie methodes die om kunnen gaan met niet-lineaire omgevingen. Er zijn zelfs reken methodes die aangeven welke voorspellende methodiek het best gebruikt kan worden.
Dus zo risico minded als we met zijn allen zijn: bij elke aanpak is wel een soort van risico analyse te maken. Maar uiteindelijk is het de mens die bepaald hoe met dit alles om te gaan.
Met andere woorden – gaan we door op basis van risico’s en angst? Of gaan we ons gezond, agrarisch denk vermogen gebruiken?
🙂
@ PaVaKe
Dat voor veel niet-IT bedrijven IT slechts ondersteunend is klopt inderdaad. Maar voor IT bedrijven en dito dienstverleners zou je dat niet verwachten. Daar is het juist een kernactiviteit – alhoewel er dat niet altijd aan af te zien is.
En ook: managen op basis van cijfers zonder context is nooit een goede – helemaal eens. Alhoewel dat meer zegt over de manager dan over de cijfers. Immers, ongeacht wat de cijfers zeggen, de mate waarin iemand zich er door laat beïnvloeden is iets wat ieder voor zich kan bepalen – die keuzevrijheid gaat met een dergelijke aanpak niet veranderen.
De meerwaarde van een dergelijke, voorspellende aanpak is wel dat er nu een keuze is: gaan we besturen door vooruit te kijken of blijven we de achteruit kijk spiegel gebruiken?
🙂
Will,
Als je het over agrarisch (denk)vermogen gaat hebben dan herinner ik me de zin: “Want zaaigoed ontkiemt misschien niet op dorre grond maar komt zeker niet tot volle wasdom bij verzilting van de bodem.” En niet alle boeren kunnen beregenen omdat bronnen – oppervlakte water mag niet gebruikt worden om verspreiding van de ralstonia solanacearum bacterie te voorkomen – soms brak water geven. Maar iedere (domein)deskundige weet dat modellen vereenvoudige weergave zijn van de werkelijkheid, zeker als je SEO gaat doen met in Excel ‘gephotoshoped’ SLA rapportages. En dus verwachtte ik al dat op basis van bekende parameters – zoals afschaffen rode diesel – de aardappelen duurder zouden worden.
P.S.
Zelfs de boer kan niet meer zonder IT, niet alleen voor alle administratie maar ook om te weten of de haspel nu wel of niet uitgerold moet worden door op buienrader te kijken. En gemiddeld valt er elk jaar nog ongeveer dezelfde hoeveelheid neerslag, alleen niet altijd gunstig verdeeld over de seizoenen om terug te komen op de statistiek. Want ondanks alle waarschuwingen over het klimaat zijn meeste boeren dan ook nog niet over gegaan op rijstvelden.
@Ewout:
LoL – zoals altijd weet je het weer fraai te verwoorden – ook deze keer!.
Alhoewel ik soms het idee heb dat je levensmotto zoiets is als “Voor elke oplossing heb ik tenminste één probleem…”.
🙂
Will,
Dat ik advocaat van de duivel speel wil niet zeggen dat ik een probleem bij elke oplossing zoek, het gaat meer om de interactie want zonder dwarsliggers blijven de rails niet liggen.
Verder schreef Peter Ambagtsheer al eens over Viable Systems Theory welke uitgaat van de filosofie van het holisme en ik kreeg de indruk dat jouw opinie een eind dezelfde richting op ging. Maar ik leg weleens vaker relaties waar ze niet zijn dus ik kan het natuurlijk ook fout hebben.
PS: Ik ben ook voorstander van voorspellend beheer, het is alleen niet makkelijk te realiseren.
Dat ik van voorspelling en statistiek hou komt heel mooi tot uiting in de film: Moneyball met Brad Pitt, een aanrader en gebasseerd op echte gebeurtenissen! Dit is een onderbouwing voor je artikel.
Een andere anekdote uit mijn eigen ervaring: In 2001 heb ik een workflow management systeem gebouwd. Een paar jaar later hebben we de processen van klachten besturdeerd en hebben we aan processtappen een kostenplaatje gehangen. Wat bleek? Bij bepaalde type klachten over natuursteen was het goedkoper om bij de eerste klachtmelding de hele order opnieuw te produceren, dan het klacht proces in te gaan en probereb deze op te lossen. Volledig tegen de intuïtie maar dus niettemin waar.