Een recessie stopt de datagroei nauwelijks, dat is een ervaring die we in de jaren 2001 – 2003 hebben kunnen zien. Zoals IDC verschillende malen heeft onderzocht, blijft de door ons gegenereerde data jaarlijks met 50 tot 80 procent groeien. Wel zien we na afloop van een recessie een nieuwe groeispurt ontstaan, en daar kunnen we ons op voorbereiden.
Naast die actieve data die we maken, ontstaat er ook een spoor van ‘schaduw-data' die we met al onze activiteiten in ict-land achterlaten op plaatsten waar we geweest zijn, deels is dat een stukje vervuiling (we hadden het ook kunnen weggooien), deels is dat bewust bewaarde informatie over wie wat heeft gedaan (e-mailcommunicatie, aankopen internet, bezoek sociale netwerken, belastingaangifte, overheidscommunicatie, etc). Deze laatste data vormen meer en meer een belangrijk deel van het ‘geheugen' van onze maatschappij. Deze data zal veelal ook zo lang bewaard (moeten?) worden dat het huidige hardware en applicaties zal overleven. Dus deze data, en de informatie die daarvan gemaakt kan worden, zal dus hardware- en applicatie-onafhankelijk moeten worden opgeslagen en beheerd.
Bedrijven die het komende jaar (en jaren) deze datagroei niet ‘zomaar' laten doorgaan, maar gepaste maatregelen nemen deze ongebreidelde groei te temmen en te beheersen, zullen de spekkopers zijn als de economie weer aantrekt en de data groei een nieuwe spurt krijgt. Het opzetten van procedures en methoden om de datagroei te beheersen is meer een inspanningsactiviteit van creatieve geesten dan een bottom-line zwaar investeringstraject. Typisch iets om op te pakken in economisch mindere tijden, terwijl vaak uit de genomen maatregelen met weinig geld grote besparingen kunnen worden gehaald, reeds op korte termijn. Hierbij speelt mee dat informatiebewerking en -opslag steeds meer energie vraagt en de besparing in die hoek dus ook gelijk een groen besparingsvoordeel oplevert.
Er zijn drie wegen die direct invloed hebben op de kosten van ons enorme data-stuwmeer:
- Verminder het stuwmeer door te onderzoeken wat voor data, inclusief kopieën, en datagenererende applicaties je allemaal hebt (dataclassificatie, applicatiediscovery) en ga door de-duplicatie, archivering, virtualisatie en consolidatie dit stuwmeer langzaam maar zeker kleiner, en dus overzichtelijker, maken.
- Beperkt de aanvoer cq aanmaak van data en gebruik effectieve content management-systemen om jouw processen te stroomlijnen en informatie-efficiënt te maken. Zorg dat de content management-omgeving effectief front-office en back-office kan verbinden en managen en creëer een intelligente repository voor alle bedrijfsinformatie.
- Verminder de kosten aan beheer en administratie door vele processen te automatiseren. Als je toch de processen stroomlijnt wat betreft informatiegeneratie, is het inrichten van een automatisch beheerde omgeving vaak een fluitje van een cent. De oude wijsheid van structureer, integreer en automatiseer blijft altijd geldig, ook in tijden van recessie!
Tot zover mijn idee hoe bedrijven in de lastige recessieperiode op informatiegebied toch op eenvoudige wijze succesvoller kunnen worden. Ict-bedrijven die op bovenstaand gebied kosteneffectieve oplossingen bieden, zullen in deze tijden klantinteresse blijven houden.
Hans Timmerman
Country Technology Officer
EMC The Netherlands
Beste Hans,
Dank voor dit artikel. Het is inderdaad hoog tijd om het veel te snel groeiende stuwmeer aan data/gegevens in te dammen. Je drie manieren van aanpak werken in de praktijk echter niet of nauwelijks. Het is gewoon een veel te grote klus om naar duplicaten te gaan zoeken. Met de vraag wat precies een duplicaat is. Gewoon beperken klinkt simpel, maar welke criteria leg je daarbij aan? En je derde aanpak klinkt als een soort indirecte oplossing uit de organisatie zelf, maar ook dan zal je eerst goed moeten weten voordat je eraan begint.
Wat wel werkt is goed op strategisch niveau vaststellen welke gegevens/data informatie zijn voor een organisatie, en je daar op richten. In de basis blijkt het dan altijd maar om een paar soorten te gaan, 3 tot 6 (soms wat meer) in mijn ervaring. Zo krijg je houvast, en dat voorkomt ongelofelijk veel onnodig werk op tactisch/operationeel niveau om de zaak op gevoel te gaan te schonen. Het is de manier om de eigenaren van die informatie hun werk te laten doen, het is tenslotte hun eigendom, en dus hun zeggenschap.
Steven
Hallo Steven,
Bedankt voor je reactie. Je hebt deels gelijk. Het is een grote klus om naar duplicaten te zoeken, maar dat moet je natuurlijk ook met hiervoor geschikte software doen. Het is soms wonderlijk om te zien hoeveel duplicaten de nieuwste de-duplicatie software weet op te sporen. Daarnaast kan met Content fingerprinting ook een grote hoeveelheid duplicaten worden gevonden. In de huidige virtualisatie omgeving worden duplicaten soms bij honderden tegelijkertijd opgeslagen, zonder dat men het merkt.
Dat inderdaad soms maar enkele soorten informatie strategisch blijken, is ook waar. Maar het aantal organisaties dat dat soort zaken nog niet op een rij heeft, is ook (helaas) talrijk. Soms is het tactisch simpeler om gewoon de mouwen op te stropen en het stuwmeer te verminderen, zeker in tijden dat de bomen niet meer tot in de hemel groeien.
Dus . . . ik ga een eind mee in je commentaar, maar denk dat je, zoals zovelen, de ongekende kracht van de-duplicatie software en fingerprinting onderschat. En dat proces kan ook nog automatisch, wel zo makkelijk.
Hans Timmerman
Beste Hans,
Toch span je met dit soort IT feitelijk het paard achter de wagen. Achteraf gaan zien wat je teveel hebt is echt iets anders dan structureel vooraf voorkomen dat je teveel krijgt. Met IT achteraf wat aan dat stuwmeer doen is zoiets als Lake Mead voor Hoover Dam leegscheppen met een emmertje, hoe groot die emmer ook is.
Natuurlijk heb je gelijk dat vrijwel alle organisaties veel te veel gegevens elektronisch hebben opgeslagen en dat e.e.a. veel te veel groeit (zie dat IDC onderzoek). Je kunt echter achteraf proberen eruit te scheppen wat je kunt, maar als je de inkomende stroom niet indamt is het letterlijk water naar de zee dragen.
Het is eigenlijk altijd ontzettend simpel om strategisch paal en perk te stellen aan de gegevens die informatie zijn voor je organisatie. Je hebt absoluut gelijk dat dat nog haast niet gebeurt. Probleem daarbij is, hoe tegenstrijdig dit ook kan klinken, IT.
Je zult vanuit informatie als bedrijfsmiddel naar de organisatie moeten gaan kijken, en dat is een spagaat die de meeste IT-ers niet aan kunnen. Sterker nog, vele IT-ers weigeren zo te gaan denken omdat IT overal wel een oplossing voor gaat geven. Wat onzin is, want o zo veel organisaties zitten al dicht tegen een IT-infarct aan.
Je hebt waarschijnlijk volledig gelijk dat de software die je aanprijst zo krachtig is. Maar de ervaring leert, en ik heb dat echt binnen 100-en organisaties gezien, dat je het niet redt met maatregelen achteraf. Organisaties willen dat ook niet, ze willen eindelijk regie krijgen over dit alles en kunnen bepalen wat wel en wat niet gaat gebeuren. Logisch als er steeds weer miljoenen of zelfs miljarden per jaar in schijnbaar ondempbare putten worden gegooid.
Als ik naar de praktijk van vandaag kijk zal het meestal het beste zijn om het ene te doen en het andere niet te laten. Met de overtuiging dat de-duplicatie enz. software op zo kort mogelijke termijn, en dat kan best jaren duren, weer uit moet stromen zodra de zaak onder controle is. Lijkt me een mooie samenwerking. En een enorme mogelijkheid voor organisaties om volwassen met haar informatie om te leren gaan.
Steven van ’t Veld
Hallo Steven,
Bedankt voor je inhoudelijke reactie.
Ik ben het met je eens: het is (helaas) vaak het paard achter de wagen spannen, maar soms is het niet anders. Ik heb in mijn vroegere leven veel aan productieautomatisering in de ‘fysieke’ fabriek gedaan. Ook daar was het, voordat we konden beginnen met automatiseren, eerst structuren (en helaas opruimen) en daarna logisch integreren van processtromen, voordat de echte voordelen van de automatisering konden worden geïmplementeerd.
De gewenste automatisering van de IT-fabriek zal niet veel anders verlopen: eerst structureren (en dus opruimen), vervolgens logische informatieprocessen opbouwen (overeenkomstig de business processen en gewenste services) en dan pas de echte automatisering realiseren. Zoals we in de jaren 80 begonnen met werkplaatsbesturing en MRP I en in twee decennia via MRP II naar ‘echte’ ERP konden groeien, zo zien we dat de IT fabriek nu op het level van werkplaatsbesturing en MRP I staan. De stappen van MRP II en vervolgens ERP moeten we nog nemen, vaak zelfs nog plannen.
Ik noem ILM (Information Lifecycle Management) dan ook vaak het ERP van het datacenter. Het eerste ILM – noem het ILM 1.0 – was typisch gericht op de (data) werkvloer, het effectiever opslaan van data overeenkomstig huidig en verwacht gebruik. Net zoiets als met MRP I werd gedaan, op basis van terugrekenen vaststellen wanneer je iets moet bestellen of beschikbaar hebben. Weinig gekoppeld nog aan het overall bedrijfsproces.
Met ILM 2.0 – vergelijk het MRP II – gaan we meer informatie planning doen, waarmee we vanuit het business proces, op basis van metadata, in de fabriek de beschikbaarheid van informatie (samengestelde data) het logistieke proces beter kunnen plannen en uitvoeren. Hiervoor moet je wel de metadata kunnen cre?ren, beheren en gebruiken, meestal gecentreerd in het mid-Office van de business, gerealiseerd met Content Management toepassingen, als link tussen front-Office en back-Office processen. Als je de parallel doortrekt, net zoals de productievoorbereiding en -planning functie in een (fysieke) bedrijfsvoering is gepositioneerd.
Ik denk dat we nog een weg te gaan hebben totdat we in de IT-fabriek werkelijk de Enterprise planning (inclusief externe supply chains) kunnen automatiseren. Dat is wel de weg natuurlijk waarvoor we als EMC momenteel onze productontwikkeling richten. Wellicht komen we dan ook in geautomatiseerde cloud omgevingen terecht, niet anders dan de uitbestedingfilosofie die eind jaren tachtig in combinatie met lean en mean productie methodieken werd ontwikkeld.
Methodieken ontwikkeld in die tijd zoals ‘just in time, ‘kanban’, batchprocessing, supplychains, CNC machines, flexibele productieautomatisering etc, zijn relatief eenvoudig te kopiëren naar onze IT-fabriek.
In feite heeft VMware van ons generieke productiemiddel – de server – een soort CNC machine gemaakt die kan worden geprogrammeerd om een bepaalde specifieke bewerking uit te voeren die voor de gewenste eindservice (een informatieproduct samengesteld uit een bepaalde hoeveelheid data sets) nodig is. Deze ‘CNC machines’ (met vele VM’s) zijn ingebed in een logistiek proces (kan SAN, NAS, CAS of zelfs COS zijn via FC, FCoE,IP,iSCSI etc. kanalen) en zijn gerangschikt rond een groot automatisch magazijn (de centrale storage). En wat niet past in je hoofdproces, besteed je uit (in de cloud).
Kortom, automatisering, of het nu de procesindustrie was in de jaren 60 & 70, de discrete productie in de jaren 80 & 90 of de IT-fabriek in de jaren 2000 & 2010, bestaat altijd uit dezelfde stappen die doorlopen moeten worden. En degene die de visie heeft en op tijd start met opruimen en structuren, wint in the end. Succesvolle toekomstverkenning is alleen mogelijk als je je verleden goed kent, niet om het te kopi?ren, maar om de overeenkomsten en verschillen te herkenen. De deja-vue die ik sinds enkele jaren heb, is redelijk sterk. En zoals Johan Cruijff als zei: ” Je gaat het pas zien als je het door hebt . . . “.
Laten we hopen dat onze interessante discussie hier hieraan bijdraagt.
Hans Timmerman