De afgelopen periode is gebleken hoe solide de Nederlandse digitale infrastructuur eigenlijk is. We zijn zonder noemenswaardige problemen, van de ene op de andere dag, massaal op afstand gaan werken. Deze versnelde cloud-adoptie is indrukwekkend. Maar als we de komende tien jaar in hetzelfde tempo willen blijven innoveren, dan is optimaliseren niet meer genoeg.
Alles wat we vandaag de dag met it doen, draait om data en rekenkracht. Als we die twee elementen bekijken vanuit het perspectief van de client-serverarchitectuur, dan valt op dat ze zich in de loop der tijd in een pendelbeweging hebben verplaatst van de client naar de server en vice versa. Zo gingen we van de mainframe-architectuur met ‘lichte’ clients naar het client-servertijdperk, waarin krachtige desktops ook zelf zware toepassingen konden draaien.
Populair
Vanaf 2011 wonnen mobiele apparaten massaal aan populariteit, en ontstond de behoefte om gegevens en toepassingen vanaf een willekeurige locatie te kunnen benaderen en uit te wisselen met andere apparaten. Als gevolg daarvan werd centralisatie van data en rekenkracht een vereiste. Dit luidde het cloudtijdperk in, waarbij de desktop steeds meer plaats maakte voor laptops, smartphones en tablets.
De cloud bood meer voordelen, zoals schaalbaarheid, flexibiliteit en – in veel gevallen – kostenreductie, maar nog belangrijker: een centrale plaats waar data en rekenkracht tot het oneindige geschaald kunnen worden.
Net zo revolutionair als de cloud is de opkomst van internet of things (iot), waarbij steeds meer apparaten met internet verbonden zijn, en een vergaande interactie faciliteren tussen mens en machine. Dit gaat gepaard met een groei aan iot-sensoren en apparaten die met internet verbonden zijn. Naar verwachting zullen dit er over vijf jaar 41,6 miljard zijn, en die zullen gezamenlijk meer dan 79,4 zettabytes aan data genereren. Die data worden decentraal geproduceerd, maar als we uitgaan van de historische regel dat rekenkracht zich in het kielzog van de data mee verplaatst, zou dat betekenen dat we die rekenkracht eveneens decentraal beschikbaar zouden moeten gaan maken. Is het huidige cloudmodel dus eigenlijk niet aan vervanging toe?
Samensmelting fysieke en digitale wereld
De opkomst van iot zorgt ervoor dat we steeds meer rekenkracht beschikbaar moeten stellen dicht bij de plek waar de data wordt gegenereerd. Tot op zekere hoogte lukt dat met het huidige cloudmodel, als het gaat om dataopslag en traditionele toepassingen. Daar is niks mis mee, maar er zijn wel enkele tekortkomingen en limieten.
Vandaag de dag is technologie steeds persoonlijker en staat zij steeds dichter bij de mens. We kunnen een smartphone misschien wel als een verlengde van onszelf beschouwen. Toch is het eigenlijk nog een vrij onhandig apparaat, dat we honderden keren per dag uit onze broekzak halen en ontgrendelen, om vervolgens via allerlei apps met verschillende clouddiensten te synchroniseren.
Wat gebeurt er als de huidige smartphone evolueert tot een nog veel persoonlijker apparaat? Iets dat ‘always on’ is en dat we op ons lichaam dragen? Als die apparaten ons bijvoorbeeld in staat stellen de fysieke wereld door een digitale lens waar te nemen? Op dat moment zullen de fysieke en digitale wereld samensmelten.
Stel je het volgende eens voor: je loopt over straat met een ‘augmented reality’-bril. Op het scherm worden navigatiegegevens geprojecteerd van je bestemming. Onderweg word je via een knipperend lampje in de rechterbovenhoek van je lens erop geattendeerd dat je een café passeert waar jouw favoriete speciaalbier in de aanbieding is. Je kijkt naar het café aan je rechterhand en vervolgens zie je in de lens van je bril dat het appartement boven het café te koop is en dat het volledig aan jouw woonwensen voldoet en ook nog binnen je budget past.
De data die om je heen beschikbaar moeten zijn om op lokale schaal tot zulke individueel relevante informatie te worden verwerkt, is enorm. Als je die data tot zoiets bruikbaars als in bovenstaand voorbeeld wilt omtoveren, zal je die data in realtime moeten selecteren en verwerken. Je zult behoefte hebben aan een filter die ervoor zorgt dat je alleen data te zien krijgt die op dat moment relevant zijn voor jouw plaats, tijd en situatie. Dat is een flinke uitdaging, zeker in combinatie met realtime visuele elementen en sensordata. Met andere woorden: dat vergt veel rekenkracht. En hoewel die weliswaar ruimschoots beschikbaar is in de cloud, is dat voor realtime-toepassingen niet altijd toereikend, mede door de beperkingen van bandbreedte en latency.
Vooravond van een nieuw tijdperk
Door de alsmaar groeiende hoeveelheid decentrale data en de groeiende behoefte om deze realtime te verwerken, zullen we rekenkracht in veel gevallen anders moeten gaan inzetten. Alleen als die dicht bij de plek waar de gegevens gegenereerd worden, beschikbaar is kun je compenseren voor de tekortkomingen van de cloud voor realtime-toepassingen.
Uit deze noodzaak is ‘edge computing’ geboren. Bij cloud computing staat de verbinding met het centrale systeem centraal, maar bij edge computing draait het vooral om de lokale interactie tussen mensen, machines en dingen. Zo is het goed denkbaar dat traditionele stoplichten in de toekomst geen kleur meer aan zullen geven, maar als een klein digitaal rekencentrum zullen fungeren dat met de zelfrijdende auto’s in zijn omgeving communiceert, in plaats van met het bedieningspersoneel. Door auto’s van de ene kant af te laten remmen en vanaf de andere kant gas te laten geven, ontstaat er een kruispunt waar auto’s naadloos elkaar zullen passeren en kruisen. Alles op lokale schaal, door de interacties tussen mens, machine en dingen, en zonder tussenkomst van de cloud.
Achter de wolken…
Het mag duidelijk zijn dat de datacentrale benadering die we tot nu toe hebben gebruikt in de it niet geschikt is voor realtime toepassingen in een wereld met ontelbaar veel databronnen. Gelukkig wordt hard gewerkt aan alternatieve benaderingen, met edge computing als het bekendste voorbeeld. Om de hoeveelheid data die we om ons heen beschikbaar hebben, toepasbaar te maken, hebben we slimme hulpmiddelen nodig. We zullen de data moeten filteren tot een subset die past bij de plaats, tijd en situatie (context) waar wij ons in bevinden en we zullen een slimme manier moeten vinden om zonder voorkennis de informatie van deze databronnen te kunnen integreren. Kunstmatige intelligentie en de intelligente integratie van gegevens zijn essentieel om alle data om ons heen om te zetten in voor ons relevante informatie, zeker in een wereld waarin de grenzen tussen fysiek en digitaal steeds meer zullen vervagen.
Om terug te komen om de vraag of er dan nog wel ruimte is voor de cloud: jazeker. Net zoals mainframes en servers niet zijn uitgestorven, zal de cloud ook niet zomaar verdwijnen. De cloud is in deze context bijvoorbeeld bij uitstek geschikt voor intensieve machine learning algoritmes en het archiveren van data. Een bedrijf als Tesla maakt hier bijvoorbeeld dankbaar gebruik van. Om een auto van Tesla autonoom te laten rijden, worden de rekenkracht en kunstmatige intelligentie die in de auto beschikbaar zijn gebruikt om de data van de camera’s en de sensoren te interpreteren en om te zetten in acties. Slechts een klein deel van deze gegevens worden bewaard en op een later tijdstip naar de Tesla-cloud gestuurd. Op deze manier verzamelt het bedrijf data van de gehele Tesla-vloot, die vervolgens als input dient om de zelfrijdende algoritmes te trainen. Deze verbeteringen worden vanuit de cloud teruggestuurd naar de edge (de auto’s). Cloud- en edge computing concurreren in die zin niet met elkaar, maar zijn complementair.
De tijd zal uitwijzen hoe dit soort next-gen-architecturen er in detail uit zullen gaan zien. De contouren beginnen zich langzaam maar zeker af te tekenen, en steeds meer software en apparaten worden geschikt gemaakt voor edge computing. Dit is dus hét moment om alvast na te denken over de nieuwe mogelijkheden van dit snel naderende tijdperk. Een periode waarin iedere gebruiker, mens, machine of ding, direct kan beschikken over de juiste data voor zijn unieke context.