De snel opkomende introductie van het data-tijdperk heeft organisaties in alle sectoren gedwongen om een nieuwe strategie met betrekking tot hun it-systemen uit te stippelen. Data komt tegenwoordig in steeds grotere volumes en de urgentie om dit te kunnen analyseren neemt navenant toe.
Ook leveranciers spelen in op deze behoefte en komen met geavanceerde platformen om grote hoeveelheden gestructureerde en ongestructureerde data te analyseren. Denk hierbij aan het SAP Hana-platform en het wereldwijd populaire Apache Hadoop. Big data heeft echter pas waarde als er slimme acties en processen voortvloeien uit de opgedane inzichten – en hier ontbreekt het in mijn ogen nog vaak aan. De huidige analyses zijn vaak gebaseerd op rapportages, monitoring of visualisatie. We kunnen veel data analyseren, maar hoe gebruiken we de uitkomsten hiervan realtime in dagelijkse processen? Het zetten van deze zogenoemde ‘last mile’ blijkt nogal eens een uitdaging.
Vervolgproces lastig op te tuigen
Het combineren van interne en externe data biedt enorm veel potentieel. Immers, als je weet dat als het drie dagen achter elkaar vriest in februari, er meer ongelukken gebeuren op de A2 tussen Den Bosch en Utrecht, dan zou je als bergingsbedrijf of verzekeraar al vroegtijdig maatregelen kunnen nemen. Of in het geval van Rijkswaterstaat, zij combineren op dit moment al hun eigen data (bijvoorbeeld geplande wegwerkzaamheden) met externe data over weggebruikers die dagelijks die route nemen. Op basis hiervan adviseert en informeert Rijkswaterstaat de weggebruikers over een andere route of een betere reistijd. Juist de combinatie tussen interne (klant)data en externe data zorgt voor waardevolle inzichten, maar juist hier wringt de schoen. Het draait allemaal om het proces dat ontstaat op basis van de uitkomsten van de analyse.
Kijkend naar de huidige it-systemen, bijvoorbeeld zoals het eerder genoemde SAP Hana of Hadoop, zie je dat deze platformen nog niet de nodige flexibiliteit bieden om ook de opvolgende actie in te regelen. Zo is bijvoorbeeld het inladen van data uit externe bronnen wel mogelijk, maar moeten er vaak ontwikkelaars ingehuurd worden om hier de code voor te schrijven – en deze code moet ook weer onderhouden worden. Bij het analyseren van real-time data is het bovendien belangrijk om bij afwijkingen snel in te kunnen spelen en aanpalende systemen snel aan te kunnen sturen. En hier zijn weer applicaties voor nodig…
Oplossing
Om de systemen snel aan te kunnen spreken en de opvolgende actie in te regelen zijn applicaties nodig. In de regel zijn deze niet zo snel ontwikkeld en aangepast als nodig is. Idealiter zijn we op zoek naar mogelijkheden om razendsnel software te ontwikkelen die ook nog eens goed aansluit op bestaande enterprise-systemen. Een platform zoals Mendix zou een mogelijke oplossing kunnen zijn. Hiermee kunnen bedrijven snel apps ontwikkelen op basis van model-driven-development. Juist het combineren van nieuwe innovatieve technologieën met bestaande ERP-systemen is nog veelal een onontgonnen gebied, maar biedt enorm veel voordelen op het gebied van flexibiliteit, wendbaarheid en resultaat.
jaja, razendsnelle oplossingen maar wel op enorme hoeveelheden data en flexibele innovatieve oplossingen maar dan voor logge oubollige ERP systemen..
en laat me raden, het mag zeker ook nie veel kosten ?
Alleen aangezien jij de Solution expert bent, Marco, predenteert dat toch een beetje dat je verder komt dan het formuleren van onmogelijke eisen. Daar hebben we al zat goedbetaalde mensen voor. Toch lees ik wat oplossingen betreft, niet meer dan dat we maar moeten wachten op Mendix 🙂
Interessant dat je artikel over die last mile gaat.
Je hebt dus Big Data nodig om te weten dat als het gaat vriezen er meer ongelukken gebeuren.
Interessant.
Data-analyse is een mooi vak: Je kunt er oneindig lang mee bezig zijn, oneindig veel rapportages over schrijven en nergens voor verantwoordelijk zijn.
En dat laatste punt is de kern van het probleem: Zodra iemand iets gaat doen met de resultaten van de analyses, wordt er ook iemand verantwoordelijk voor deze analyses. Een organisatie kan kapot gaan aan verkeerde analyses of verkeerde acties n.a.v. deze analyses. Veel mensen hebben er dus eigenlijk wel baat bij om vooral niet teveel te doen met analyses, het zou wel eens heel erg verkeerd kunnen aflopen. En dus wordt de last mile nog maar even uitgesteld en gaan we nog maar een paar analyses doen, just to be sure….
Het is een politieke keuze en je moet het lef hebben om je hoofd boven het maaiveld uit te steken.