Elke organisatie wil efficiëntie verhogen, kosten besparen en betere service verlenen. Vanuit deze wens groeit de behoefte aan operational intelligence: processen optimaliseren op basis van data. Door de inzet van advanced analytics zoals machine learning of artificial intelligence is er meer mogelijk op dit gebied. Organisaties vissen echter vaak achter het net, omdat er twee werelden bestaan op het gebied van data.
In de ene wereld worden dataplatformen gebouwd, zodat data zijn te analyseren en verwerken voor tactische en strategische sturing. In de andere wereld worden integratieplatformen gerealiseerd om data (near) realtime aan de operatie beschikbaar te stellen. Effectieve analytics zijn alleen toe te passen als er één versie van de werkelijkheid gecreëerd wordt over deze twee werelden heen. Maar omdat de expertises vaak ver uit elkaar liggen, is efficiëntie ver te zoeken en dat staat operational intelligence in de weg.
Om op operationeel niveau (near) realtime analyses te kunnen doen, heb je data uit dataplatformen én snelle integraties nodig. Dat is precies de reden waarom de twee werelden bij elkaar moeten komen. Ze hebben elkaars expertise, oplossingen en architectuur nodig. Een data engineer weet als geen ander hoe je data kunt ontsluiten en een integratiespecialist weet precies hoe je applicaties met elkaar laat samenwerken. Door deze twee bij elkaar te brengen, kun je een complete architectuur uiteenzetten waarmee je één wereld en één werkelijkheid creëert. Daarmee leg je de basis voor operational intelligence.
Afzakken
Om hier te komen zijn twee zaken belangrijk. Allereerst moeten experts kennismaken met elkaars wereld. Pas als ze elkaar begrijpen en op dezelfde manier naar het applicatielandschap en het datalandschap kijken, kan er écht goed worden samengewerkt. Vervolgens is het zaak om een universeel datamodel te ontwikkelen en een complete architectuur uiteen te zetten.
Net zoals er afspraken zijn hoe je binnen de organisatie met elkaar communiceert, zijn er afspraken en structuur nodig over hoe je omgaat met data. Deze zijn er vaak al op strategisch vlak, maar moeten dus afzakken naar operationeel niveau en gelijk worden getrokken met integratieafspraken. Hiermee creëer je één werkelijkheid. Door data vervolgens vanuit een centraal punt beschikbaar te stellen aan applicaties binnen de hele organisatie, is de toegevoegde waarde van analytics ook in de operatie te gebruiken. En zo zet je de utopie van een datagedreven organisatie om in realiteit.
Matthijs Vogt, dataplatform-architect Ilionx
Uitgaande van de eerste zin over een efficiëntie door kosten te verlagen en service te verbeteren kijk ik – vanuit een data specialisme – iets anders tegen de 2 werelden van data- en integratieplatformen aan. Mogelijk komt dat door het Information Lifecycle Management welke 5 levensfasen kent terwijl de meeste integratieplaformen in de vorm van de Systems of Engagement zich maar op 3 ervan richten met als resultaat dat het archiveren en uiteindelijk verwijderen van de data nog altijd te weinig aandacht krijgt. Want een universeel datamodel wat niet aansluit op het informatiemodel zorgt er niet alleen voor dat ‘privacy-by-design’ in een datagedreven realiteit een utopie blijft maar ook dat er weinig efficiëntie in het databeheer zal zijn omdat de kosten alleen maar blijven verdubbelen als de onderliggende technologie en informatiebehoeften niet goed op elkaar afgestemd zijn.
Zoals gezegd kent het Information Lifecycle Management vijf cycli waarvan meestal maar 3 goed belegd zijn in de Systems of Engagement. Eerste twee zijn het creëren en vastleggen van gegevens. Opmerkelijk is dat waar vroeger nog de nadruk lag op een manuele invoer van nieuwe gegevens (data entry) door personeel binnen de organisatie we steeds meer naar het verwerven van reeds bestaande gegevens buiten (data acquisition) de organisatie gaan met Systems of Collaboration door Internet. En het vastleggen hierbij kan in vele vormen zoals bestanden in bv. PDF en Word-documenten als het over een gedigitaliseerde papierstroom gaat of als databasegegevens via de onderliggende dataplatformen zoals Systems of Record. Een nieuwe – en opkomende – vorm van creëren van data is het vastleggen van gegevens (data capture) die worden gegenereerd door apparatuur die in verschillende processen in de organisatie wordt gebruikt.
Ongeacht hoe data gecreëerd wordt zal deze (fase 2) opgeslagen en beschermd moet worden met het juiste beveiligingsniveau. En dit omvat ook back-up- en herstelprocessen waarbij de retentie van gegevens gedurende de levenscyclus gewaarborgd blijft want één van de uitdagingen voor veel organisaties betreft het recht op verwijdering uit de back-up. De derde gegevenslevenscyclus binnen Information Lifecycle Management betreft de gebruiksfase waarbij gegevens kunnen worden bekeken, verwerkt, gewijzigd en een weer opnieuw opgeslagen. En één van de uitdagingen voor veel organisaties hierin met de gebruikelijke Systems of Engagement betreft de logging en met name de ‘exportfuncties’ voor het delen met anderen buiten de organisatie.
Maar het gaat dus ook vaak mis bij de vierde fase in het Information Lifecycle Management als data gekopieërd wordt naar goedkopere opslag om deze zodoende te archiveren. Veelal vindt hier namelijk een ‘knip’ plaats tussen de metadata en data waardoor informatie en data feitelijk van elkaar gescheiden worden. Lang leve alle ‘ongestructureerde data’ en de zegeningen van data analyse om zodoende het bewijs te vinden wat je kwijt was. Of je vindt nieuw bewijs middels de moderne datasynthese van data acquisition en data capture middels de Systems of Collaboration want data wordt vaak niet vernietigd omdat opslag in de cloud niks kost. En datavernietiging is dus het verwijderen van elke kopie van een data-item waarbij de uitdaging van deze fase ligt in het naar behoren poetsen van de schijven omdat weggooien niet gelijk is aan verwijderen.