De Eniac uit 1946 woog dertig ton en had 63 vierkante meter vloeroppervlak nodig. De rekencapaciteit van deze machine was echter een fractie van wat een zakrekenmachine vandaag de dag kan. We zijn in 64 jaar dus een heel eind gekomen. Als we deze trend doortrekken waar komen we dan uit?
Nog steeds gaan de ontwikkelingen in de ict erg snel. Hoewel het einde van de Wet van Moore al diverse malen is voorspeld, lijkt er elke keer toch weer een uitweg gevonden te worden. Als je om je heen kijkt in de ict-infrastructuur zie je verschillende zaken waaruit blijkt dat we een kritisch punt gepasseerd zijn:
– Als je een nieuwe desktop, laptop of mobiel koopt is het meestal niet meer nodig om de duurste te kopen. Voor de meeste gebruikers (uitzonderingen zijn er altijd) is het instapmodel meer dan capabel om de dagelijkse activiteiten te kunnen uitvoeren. Natuurlijk klinkt het cool om te vertellen dat je 2 terabyte in je mobiel hebt zitten, maar hoeveel gebruikers zullen dit ook echt gebruiken?
– Servers worden nu zo snel dat voor veel (kleine) applicaties een enkele (instapmodel) server eigenlijk al te groot is en dus gaan we virtualiseren en schuiven meerder applicaties op een server. Gekker nog: de server wordt zo groot dat we soms discussies krijgen met leveranciers over cpu-based licenties, want de server kan zoveel en dat gebruiken we helemaal niet.
– In de opslag neemt de vraag toe, maar de groei in technologie ook. En met moderne technieken als deduplicatie en versioning filesystems is de groei aan data voor de gemiddelde organisatie steeds beter in de hand te houden. Er is ook maar zoveel data die een organisatie nog zinvol kan gebruiken. Ook hier zijn er natuurlijk uitzonderingen die de regel bevestigen.
Aan de software kant zien we ook diverse ontwikkelingen:
– Het hosten van applicaties in de cloud betekent dat efficiëntie van applicaties directe invloed heeft op de kosten van de ict. Natuurlijk was dat vroeger ook wel zo, maar dat wordt in de cloud wel heel direct zichtbaar gemaakt. Applicaties (en de gereedschappen om ze te maken) zullen hier dus meer aandacht aan gaan besteden.
– Met moderne tools wordt het (als je de leveranciers mag geloven) steeds beter mogelijk om enterprise wide je data te modelleren. Dat betekent minder conversieslagen en dus minder (groei van) behoefte aan cpu en opslag.
– Kleinere code is beter te analyseren met formele methoden en is dus robuuster te bouwen en het draait nog sneller ook. Niet voor niets waarschijnlijk dat Microsoft Research met Singularity het gebruik van micro kernels onderzoekt.
De laatste jaren is er een forse standaardisatieslag in infrastructuurland bezig:
– Het aandeel x86 compatible servers neemt gestaag toe en langzaam verworden de non-x86 platformen tot nichemarkten. Ook andere infrastructuurcomponenten waar vroeger specifieke hardware voor nodig was (bijvoorbeeld telefooncentrales) zijn nu softwarecomponenten die op een x86-platform kunnen draaien.
– Aan de netwerkkant wordt alles Ethernet/IP. Waar eerst DECnet en X.25 het veld moesten ruimen, wordt er nu met iSCSI, FCIP en FCoE aan de pootjes van glasvezel gezaagd.
Kortom: we gaan naar standaard bouwblokken toe die op zich steeds kleiner worden. Kochten we vroeger losse servers waarbij we uren aan het puzzelen waren wat nu het beste model was, tegenwoordig kopen we maar direct een negentien inch kast met bladeservers. Aardig detail daarbij is natuurlijk dat we in zo'n negentie inch kast ook weer minder infrastructuurcomponenten nodig hebben, want de stroom en de netwerkvoorzieningen van zo'n kast hoeven maar op een paar punten aangeleverd te worden. Dus daar gaan weer een paar switches en powersupplies. En zo wordt ons rekencentrum steeds leger.
Als we nu al deze zaken combineren, dan zien we dus dat voor de gemiddelde organisatie de ict steeds kleiner wordt. Misschien dat over dertig jaar een rekencentrum op iPhone-formaat voldoende is. Of we het dan nog steeds zelf doen of uitbesteden, is dan weer een andere vraag. Maar zoals we tegenwoordig ook niet precies hoeven te weten hoe een cpu werkt, hoeven we op termijn ook niet meer precies te weten hoe onze infrastructuur werkt. De organisatie koopt een doos en misschien één als reserve met één kabeltje er tussen en als er iets stuk is dan sturen we hem op voor reparatie. Niks geen schijven vervangen, RAM bij plaatsen, switches configureren, etc. Dat betekent dus ook dat de specifieke kennis die hiervoor nodig is op veel plaatsen zal verdwijnen. Het beheren van ict-infrastructuur zal een kwestie van klikken en slepen zijn. De huidige, simpele handelingen zullen weggeautomatiseerd worden en complexe handelingen zullen gereduceerd worden tot ja/nee-keuzes.
Wat blijft er dan nog wel? Tja, dat is een goede vraag! Er zal altijd behoefte zijn aan specialisten bij grote organisaties (bijvoorbeeld een Amazon, Google of andere cloudprovider), maar dat zullen er minder zijn en ze zullen een ander specialisme hebben dan de huidige infrastructuurspecialisten. Daarnaast zullen er mensen nodig blijven die op het snijvlak van infrastructuur, applicatie en gebruikers de juiste keuzes kunnen maken. Het goede nieuws is dat die laatste categorie lastig te offshoren is dus werkgelegenheid zal er altijd zijn, maar op het gebied van infrastructuur zal deze waarschijnlijk kleiner zijn en behoorlijk anders dan wat we nu gewend zijn.