Het is een goed managementgebruik om risico's in te calculeren op grond van een gedegen kosten-batenanalyse. Iedereen weet dat het garanderen van de laatste paar procenten beschikbaarheid van ketens naar verhouding de hoogste kosten met zich meebrengt. Het lijkt er nu op dat ‘we met z'n allen' hebben geaccepteerd dat 100 procent betrouwbaarheid economisch gezien onverantwoord is en is het waarschijnlijk daarom, dat we de reeks van flinke it-storingen die het afgelopen jaar de pers gehaald hebben, nog enigszins hebben geaccepteerd. Maar hoe lang nog?
Inmiddels is de afhankelijkheid van it-systemen in het maatschappelijk verkeer enorm. Mede door de vervlochtenheid van allerlei processen en systemen is de potentiële impact van falende it sterk toegenomen. Denk aan communicatie, financieel verkeer, beheer en bediening van infrastructuur (bijvoorbeeld voor auto-, trein-, vlieg- en scheepvaartverkeer), medische apparatuur, ondersteuning van allerhande bedrijfs- en productieprocessen. Dit stelt hogere eisen dan voorheen aan de beschikbaarheid, daar twijfelt niemand aan. De complexiteit van it-ketens is vaak echter niet gering en het einde daarvan lijkt nog lang niet in zicht. De kans op verstoringen is groot en hun maatschappelijke impact en kosten nemen toe.
Publiek geheim
Is het een publiek geheim dat in de meeste gevallen geen navenante maatregelen zijn getroffen om de verslechterende risico's goed te managen? Illustratief is de voorspelling van Gartner dat in 2015 zo'n 80 procent van alle majeure it-outages veroorzaakt zal worden door menselijk handelen. In de helft van de gevallen, schat het bureau in, gaat dat gebeuren tijdens het doorvoeren van changes. In een wereld waarin systemen 24x7x365 beschikbaar moeten zijn, zijn de change windows uitermate beperkt. Gezien de sterk toegenomen complexiteit van it-infrastructuren is het dus wachten op de volgende storing die ingrijpt in ons dagelijks leven.
Natuurlijk is het niet zo dat er niets aan gedaan wordt om deze problemen te voorkomen en gevolgen van storingen en outages te beperken. Er is al veel geïnvesteerd in redundante systemen en in high-availability-systemen. En er is geïnvesteerd in disaster-recovery-voorzieningen en veel meer. Maar de hoge kosten en investeringen in weer nieuwe maatregelen staan op gespannen voet met de flinke druk om verdere kostenreducties door te voeren.
Niet meer wakker liggen
Wij zijn in het stadium gekomen dat veel cfo's 's nachts niet meer wakker liggen over het managen van financiële zaken die impact hebben op cashflows en winstgevendheid. Inmiddels lijkt de beschikbaarheid van hun it-systemen die kritisch zijn voor de verkoopkanalen en primaire processen hun grootste zorg te zijn. Als de verkopen afgeremd worden of zelfs (tijdelijk) helemaal stil komen te liggen door falende it treedt een hefboomeffect op van stijgende kosten en dalende omzetten, om nog maar niet te spreken van gevolgeffecten als schadeclaims en verlies van klanten. Het netto-effect op de brutomarge is een ware nachtmerrie.
In dit licht bezien is het onvoorstelbaar dat het overzien van complexe it door de hele waardeketen heen over het algemeen nog steeds wordt gedaan door alleen mensen, of mensen in control centers die reageren op impulsen vanuit diverse waarschuwingssystemen. Natuurlijk zijn die voorzien van dashboards en geavanceerde tools en zijn het capabele professionals. Maar er wordt zo langzamerhand wel heel erg veel van ze gevraagd als zij niet alleen real-time moeten monitoren en ingrijpen als zich problemen voordoen, maar ook proactief allerlei preventieve maatregelen moeten uitvoeren.
Onbekendheid met de oplossingen die inmiddels bestaan, is waarschijnlijk de belangrijkste oorzaak van het feit dat échte automatisering van it-beheer nog maar relatief weinig wordt toegepast. Waar autonome expertsystemen in staat zijn om op machinesnelheid duizenden waarnemingen tegelijk te analyseren en evenzoveel handelingen tegelijk uit te voeren, wordt in de praktijk nog steeds gezocht naar nog meer toepassen van de aloude maatregelen om dat werk te doen. Terwijl is bewezen dat intelligente, zelflerende robots problemen kunnen voorzien en dienovereenkomstig proactief kunnen handelen en de meantime to resolve met gemiddeld 60 procent terug kunnen dringen, huren de meeste bedrijven nog steeds knappe koppen met een vracht aan tools in voor een ‘mission impossible'.
Paradigma
Het tot nu toe geldende paradigma lijkt nog steeds te zijn dat alles staat of valt met het inhuren en organiseren van de juiste mensen, die je vervolgens leert met verbeterde processen optimaler te werken die processen ten uitvoer te brengen met behulp van nog meer tools. Maar: als je blijft doen wat je deed, blijf je krijgen wat je hebt…. Het nieuwe paradigma is dat organisaties al lang beschikbare autonome expertsystemen nu gaan inzetten om complexe it door de hele keten heen te overzien en pro-actief te beheren. Door hun aard dwingen die expertsystemen bovendien een systematische procesinrichting af en voeren daarbij ook autonoom complexe beheerstaken uit, met voorspelbare resultaten, 24×7 uur, dus altijd. De it-organisaties die met deze technologie ondersteund worden, richten zich vooral op het optimaal ondersteunen van de business en het orkestreren van de overall architectuur. Een wereld waarin de rollen omgedraaid zijn en niet alleen de cfo's, maar alle belanghebbenden blijven krijgen waar ze dagelijks op rekenen. En bovendien tegen veel lagere kosten.
Jeroen de Haas
Business development director
IPsoft
Beetje flauw hoor, maar wat word hier nu gezegd? Geen enkel concreet voorbeeld, geen enkele bronvermelding. Met zo’n boodschap
“Als je blijft doen wat je deed, blijf je krijgen wat je hebt….” is dat niet een verhaspeling van; “Als je doet wat je altijd gedaan hebt, krijg je wat je altijd gekregen hebt?” (vrije vertaling van Anthony Robbins)
“Het tot nu toe geldende paradigma lijkt nog steeds te zijn dat alles staat of valt met het inhuren en organiseren van de juiste mensen, die je vervolgens leert met verbeterde processen optimaler te werken die processen ten uitvoer te brengen met behulp van nog meer tools.”
Als je dit in Wikipedia plaatst krijg je een: citation needed.
Schrijf dan: Mensen doen nog teveel handwerk, dit handwerk kan steeds meer overgenomen worden door slimme software.
Nu lijkt het veel wollige taal om een gebrek aan substantie te maskeren.
Het is maar op welk niveau je infrastructuur in het communicatiemodel wil bekijken:
1- gas, water, licht en IP op een ander niveau
2- techniek, organisatie en communicatie-infrastructuur
3- management, financien en bedrijfstoepassingen
maar om het nu aan de mensen en de inhuur ervan te wijten, zoals in het artikel is aangeven, wel erg negativistisch en maar goed dat daar geen onderbouwing van is.
Ik geloof hier niet zo in
Zolang we systemen hebben die eindigen met een mooi blauw scherm als ze het niet meer snappen, en die je voor een groot deel van de updates / wijzigingen moet rebooten dan zal een autonoom expertsysteem je niet veel verder helpen. We merken het nog steeds: als ik de gemiddelde help- of servicedesk belt met een probleem is de standaardvraag: heeft u al geprobeerd opnieuw op te starten?
Een stukje robuust systeemontwerp en architectuur gaat je mijns inziens veel meer helpen. 20 Jaar geleden (en vml nog wel langer geleden) kon er al een systeem gemaakt worden met grote gegarandeerde beschikbaarheid. Dit was echter geen sexy systeem. Het werkte met een sterk hierarchische structuur, en vaste lijnen van punt A naar B. Dus niks geen cloud of BYOD. Maar wel rete-stabiel en betrouwbaar.
En als er dan eens iets niet werkte, hadden we dat met de beschikbare diagnosetools snel gevonden.
En daar bleek al dat dit maar beperkt te automatiseren is. Als er iets uitvalt in de communicatie tussen punt X en Y kan dat legio oorzaken hebben. Door meten, combineren en kennis kun je dit determineren.
Maar hiervoor moet je geen mensen inhuren. Hiervoor moet je mensen in vaste dienst nemen, die zich in willen leren in de materie en begrijpen hoe de infrastructuur in elkaar zit (en vooral ook: waarom!)
Als je dit zou willen vangen in een autonoom expertsysteem, dan wordt dit systeem haast nog duurder dan de omgeving die je wil managen.
Er zit ergens een balans tussen flexibiliteit en kwaliteit. Als je via “een app” op “een device” een transactie wil doen tussen “een server” die ergens in “de cloud” staat met “een andere server” die weer ergens anders in “de cloud” staat, dan krijg je onzekerheid tot de macht 6 als het gaat om de infrastructurele betrouwbaarheid van de keten.
Het goede oude mainframe was dan misschien niet sexy, maar voor bedrijfskritische applicaties was de onzekerheidsfactor vele malen kleiner.
Onzin.
Het onderhouden van de rule set die zo’n expertsysteem zou gebruiken voor het managen van de systemen, vereist een minstens zo grote domeinkennis als wat er nu aanwezig is voor het managen van de systemen zelf.
Bovendien is deze rule set aan enorme verandering onderhevig, aangezien de componenten van de ict-infrastructuur continue veranderen. Een simpele patch op een stuk software kan een message varanderen waardoor een rule binnen het expert systeem niet meer wordt getriggered en waardoor noodzakelijke acties achterwege blijven, etc. etc.
Een derde nadeel is dat het expertsysteem zelf het grote single point of failure wordt.
Ik heb gewerkt met systemen als BMC Patrol, Tivoli, TNG alsmede expert systemen en automatische consoles. Het verbaast mij daarom enigzins een dergelijke naieviteit in zo’n artikel aan te treffen.