Een big data implementatie kent vele hobbels, maar de echte uitdaging komt pas als er eenmaal een systeem staat. Hoe zorg je dat big data een blijvend onderdeel wordt van de organisatie? En hoe kun je dan doorgaan met innoveren?
Sinds het begin van de negentiger jaren ben ik betrokken bij big data implementaties, onder steeds andere noemers: AI, KI, machine learning, patroonherkenning, reporting, data warehousing, data mining, et cetera. De techniek was altijd een mooie uitdaging, maar keer op keer bleek de organisatorische kant de grootste kluif. Hoe krijg je de daadwerkelijke behoefte helder, hoe borg je kennis, hoe integreer je in de bestaande it, hoe zorg je voor continuïteit?
Het recept
Om aan te geven waar de valkuilen zitten, volgt nu een omschrijving van hoe je het helemaal verkeerd kunt doen: een recept dus voor een big data eendagsvlieg: maximale kosten en doorlooptijd, minimaal rendement. Daar gaan we.
Allereerst, maak het heel duur door alles zelf opnieuw te bedenken en te maken. Kijk vooral niet naar de big data strategie van aanverwante organisaties. Neem aan dat die er geen verstand van hebben en dat hun informatiebehoefte heel anders is. Denk eraan: not invented here!
Zorg dat de ontwikkeling meteen binnen de bestaande it-omgeving gebeurt, zodat je kosten en doorlooptijd flink oplopen vanwege alle it-procedures en voorwaarden (standaarden, toegang, security). Ga vooral niet eerst ontwikkelen in een onafhankelijke omgeving. Dat gaat te snel en je bent te flexibel. Kies voor je implementatie allemaal nieuwe tools en ga niet bepalen of de bestaande tools in de organisatie geschikt zijn voor big data. Creëer ook een enorm risico door allerlei soorten persoonlijke gegevens te verzamelen en negeer privacy-aspecten.
Focus tijdens de ontwikkeling vooral op de zaken die technisch interessant en cool zijn – het maakt niet uit of het meerwaarde biedt voor de business. Ga voor een maximaal aantal buzzwords in de implementatie. Facebook en Twitter zijn de bom. Investeer ook zoveel mogelijk in opslag want analyseren kan altijd nog. Opslag is een doel!
Pas als alles klaar is, laat dan de resultaten aan gebruikers zien. Ze heten niet voor niets eindgebruikers! Zo ben je verzekerd dat het resultaat niet voldoet aan de eisen en wensen.
Maak ook tijdens de ontwikkeling veel reclame voor de nieuwe big data mogelijkheden zonder eerst ervaring op te doen. Op die manier wordt straks een maximaal aantal mensen gefrustreerd met een overbelast systeem dat nog niet voldoet. Begin groot!
Als de ontwikkeling is voltooid, ontbind dan de projectorganisatie want het is klaar. Neem aan dat alles voldoet en er geen nieuwe wensen komen, ook niet als gebruikers meer ervaring opdoen. Ga dus vooral geen functioneel beheer en applicatiebeheer doen. Om te voorkomen dat men toch zelf nieuwe dingen gaat proberen, maak het onmogelijk voor gebruikers om brongegevens uit het datawarehouse te halen en zelf te analyseren, of erger nog: nieuwe gegevens aan het datawarehouse toe te voegen. Dan ben je weer terug bij de anarchie van vroeger. Streef naar een big data dictatuur!
Verder moet je big data echt alleen gebruiken voor strategie, immers: informatievoorziening is toch voor beslissers op hoog niveau en niet voor de operatie?
Kern van de oorzaak
Alle gekheid op een stokje: dit soort fouten zijn aan de orde van de dag. De kern van de oorzaak zit in de diepe behoefte van ons mensen, mijzelf incluis, om snel mooie dingen te realiseren in alle vrijheid. We willen bij voorkeur zelf alle credit, niet gehinderd door de mening van anderen, of beperkt door regels en als we éénmaal gecreëerd hebben, dan willen we weer verder naar de volgende creatie, want we denken dat beheer saai is. Maar zo hebben we uiteraard geen succes. Succes is de juiste balans vinden tussen hergebruik en zelf doen, tussen solo en polderen, tussen eigenzinnig en conformistisch. Als we de valkuilen kennen dan moet het ons lukken om met enig doorzettingsvermogen en geduld big data te realiseren én goed te verankeren.
Rob,
Altijd goed om de mogelijke valkuilen aan te geven.
Zoals je goed aangeeft ligt de grootste uitdaging op het organisatorische vlak. Als je dit goed afvangt en begeleidt is de kans op succes vele malen groter.
Als de behoefte vooraf goed vastgesteld is, kan er gekeken worden of Big Data wel nodig is. En of er wel een daadwerkelijke businesscase voor is.
Zorg dat je er echt klaar voor bent en dat de voor- en nadelen van Big Data vooraf goed duidelijk zijn. Is dit allen niet het geval dan is mij advies om nog even niet naar Big Data te kijken. Bezint eer ge aan Big Data begint.
Rob,
Als ik de verschillende verhalen over ‘Big data’ lees lijkt het toch vooral rebranding van oude producten door de bekende leveranciers om mee te liften op alweer een nieuwe hype. Inderdaad het recept voor een langdurige en kostbare implementatie waarmee uiteindelijk niet veel meer dan ERP 2.0 behaald wordt. Toch is het meer dan een eendagsvlieg omdat er steeds meer ontsluiting komt van informatie doordat we meer en meer gebruik maken van aan Internet gerelateerde diensten. ‘Big data’ is in mijn optiek dan ook een vorm van business intelligence in de cloud, data mining in open bronnen om de diamant van nieuwe inzichten en kennis te vinden.
Hierbij is het wel van belang dat data betrouwbaar is en niet vervuild omdat er dan kans is op een ‘meltdown’ van (informatie)systemen terwijl alle meters op dashboard toch op groen stonden. Zo lijkt bijvoorbeeld opwarming van de aarde en rol van CO2 steeds vaker ter discussie te staan omdat gegevens onjuist, incompleet of onvolledig blijken te zijn. Maar ondertussen is er wel ‘big money’ besteed aan maatregelen om uitstoot van broeikasgassen te reduceren. Net als trouwens de redding van financiele instellingen door plotselinge kredietcrisis die alle analisten en experts blijkbaar ook niet aan zagen komen ondanks de overvloed aan gegevens. Ook dachten we heel lang dat spinazie meer ijzer bevatte doordat er een komma verkeerd geplaatst was. En Stapelgate was niet ontstaat als een wetenschappelijk journalist niet wat dieper groef naar de onderzoeksmethode die gebruikt werd.
Betrouwbaarheid van data neemt toe als deze transparant is, uit meerdere onafhankelijke bronnen komt en controleerbaar is. En juist aan deze 3 factoren schort het nog weleens waardoor ‘big data’ ook een grote leugen, een hoax kan worden door de snelheid hiervan en de waarde die we er blijkbaar aan geven. Het ‘ei van Columbus’ is dan ook een beetje een koekoeksei omdat we niet alleen zelf die enorme bult aan informatie genereren maar ook als makke schapen achter elk goed klinkend idee aanlopen. Met z’n allen zijn we druk op sociale media en vullen dus de systemen die als ze voldoende volume hebben goed geld opbrengen voor de initiatiefnemers. Zijn de grootste valkuilen dan misschien ook niet een paar heel menselijke eigenschappen zoals hebzucht en angst waar marketeers handig gebruik van maken?
Hoi Rob,
Vermakelijk en zeer leerzaam. Helaas ook herkenbaar op sommige punten en ik kan er zonder moeite nog een paar aan toevoegen. Zoals:
– Neem een platformbeheerder die niet flexibel is en die geen omgeving biedt voor innovatie.
– Vraag advies aan een privacy officer die meedenkt in onmogelijkheden en niet in mogelijkheden.
– Ga de concurrentie aan met andere AI producten, zodat in de organisatie de discussie gaat over verschillen in cijfers en niet over de trend die je laat zien.