Zoals apps onze interactie met computers wezenlijk hebben veranderd, zo maken nu algoritmes ruimte voor een sprong voorwaarts op het gebied van machine-learning. Dat heeft impact op ons leven: zo’n in wiskunde vervatte reeks instructies is de drijvende kracht achter Google’s zoekmachine. Ook zorgen ze ervoor dat jij via Netflix de juiste series krijgt voorgeschoteld en maken ze het mogelijk om via spraak interactie met machines te hebben. Zonder algoritme zijn zelfrijdende auto’s ondenkbaar en bezorgen webwinkels jouw bestelling niet al de volgende dag. Onderzoeksbureau Gartner noemt dat de ‘algorithm economy’, ofwel de datagedreven economie.
Volgens Gartner geeft dit fenomeen digitale innovatie een nieuw impuls en dwingt het cio’s technologie, leiderschap en bedrijfsvoering anders te benaderen. Wat betekent dat concreet? Het aantal diensten dat gebruikmaakt van algoritmes is bijna eindeloos, en dus spreekt het voor zich dat we daar nog maar zelden bij stilstaan.
In de voorbeelden die ik hierboven noem, is het niet de data die bijzonder is, of de hoeveelheid data die wordt verwerkt. Nee, het gaat om de toegevoegde waarde van de algoritmes die machines in staat stellen op basis van ruwe data zinnige conclusies te trekken.
Zettabytes
Het kwam al voorbij: voor algoritmes is data onontbeerlijk. Hoe meer, hoe beter eigenlijk. Dan denk je natuurlijk al snel aan big data, maar nu er bij het schatten van de omvang van de wereldwijde storage al over zettabyte als ordegrootte wordt gesproken, kun je stellen dat we een nieuwe fase zijn ingegaan: alle data is nu big data. Dat geldt zelfs als je de term big data gebruikt om ingewikkelde datasets te omschrijven: door de exponentiële groei is het verwerken van ongestructureerde data eindeloos veel complexer geworden en daardoor is de benodigde processorkracht enorm toegenomen. De berekeningen die we nu kunnen doen, waren een paar jaar geleden ondenkbaar.
De vooruitgang danken we aan onze toegenomen vaardigheid in het combineren van geavanceerde statistische modellen en nieuwe rekenmethodes. Hierdoor begrijpen we onze databronnen beter en kunnen we er meer van profiteren. Dankzij dit inzicht kunnen we algoritmes maken die sneller dan ooit patronen in data ontdekken en problemen oplossen. Dat schept natuurlijk interessante commerciële mogelijkheden. Het zou zomaar kunnen dan algoritmes over niet al te lange tijd worden geëxploiteerd alsof het mobiele apps zijn. De zogenaamde datadriven economy.
Groter is niet altijd beter
Zo’n dataeconomie stelt hoge eisen aan dataopslag en rekenkracht, vooral als cio’s vaker besluiten om gebruik te maken van publieke clouddiensten. Toch blijven veel organisaties er voorlopig de voorkeur aan geven om algoritmes en andere bedrijfsgevoelige informatie veilig achter de eigen firewalls te houden. Opvallend genoeg liggen daar de interessantste mogelijkheden voor de algoritmes. Ze bieden bedrijven immers de mogelijkheid om naar eigen voorkeur van en naar de publieke cloud te switchen.
Het probleem waar het hier om draait, is meteen ook de oplossing ervan: door toenemend gebruik van algoritmes neemt de druk op opslag en rekenkracht toe, maar diezelfde algoritmes zullen op basis van de talloze gegevens in staat zijn om deze last te verlichten.
Deze laatste ontwikkeling is al gaande. Dat zien we bijvoorbeeld bij machine-learningtools, die voor opslag en rekenkracht gebruikmaken van een uitgekiende combinatie van publieke en private platformen. Op basis van kleine veranderingen in de uitkomst wordt voortdurend bijgestuurd naar de optimale performance. Zo ontstaan nieuwe mogelijkheden, die met dezelfde apparatuur voorheen niet waren te realiseren. Het is dan ook mijn overtuiging dat algoritmes en machine-learning essentieel zijn voor de digitale transformatie. En die gaat sneller dan we denken.
Door: Patrick van de Werken, Senior Regional Director Northern Europe bij Nutanix