De wereldwijde uitgaven voor cloudinfrastructuurdiensten stegen in het tweede kwartaal van 2023 met 16 procent, blijkt uit cijfers van Canalys. Dit is een daling ten opzichte van 19 procent in het kwartaal ervoor. Op termijn moet artificiële intelligentie (ai) evenwel voor nieuwe klanten en workloads, en dus voor nieuwe inkomsten zorgen.
72,4 miljard dollar of 65,8 miljard euro. Zo veel bedraagt volgens Canalys de markt voor cloudinfrastructuurdiensten. Canalys definieert deze markt als diensten die infrastructure-as-a-service en platform-as-a-service bieden.
De groei van deze cloudinfrastructuur vertraagt dus, omdat de markt het effect voelt van de druk op de uitgaven. Hoewel een tragere groei ook een gevolg is van de grotere omvang van de markt. In het tweede kwartaal van 2023 groeiden de drie grootste leveranciers, Amazon AWS, Microsoft Azure en Google Cloud, gezamenlijk met 20 procent – tegenover 22 procent in het eerste kwartaal – en waren daarmee goed voor 65 procent van de totale uitgaven.
Terwijl AWS en Microsoft beide een groeivertraging lieten zien, bleef de groei van Google Cloud stabiel ten opzichte van het vorige kwartaal, op 31 procent. AWS is wel marktleider met 30 procent, Microsoft Azure haalt 26 procent en Google volgt op enige afstand met 9 procent.
Partners cruciaal
Door de aanhoudende macro-economische onzekerheden blijven klanten zich richten op het optimaliseren van cloudgebruik om kosten te besparen. Tot nu toe zijn ai-technologieën, en de integratie ervan in bestaande producten, nog niet op grote schaal gecommercialiseerd. Waardoor ze dus nog geen significante impact hebben gehad op de inkomsten van cloudproviders. ‘Maar ai vertegenwoordigt een belangrijke drijfveer voor cloudinvesteringen in de toekomst. Alle grote cloudleveranciers blijven zwaar investeren in ai-technologieën’, stelt Yi Zhang, onderzoeksanalist bij Canalys.
De voorbije maanden lanceerden zowel AWS als Microsoft nieuwe ai-georiënteerde partnerprogramma’s, waarmee ze het belang erkennen van samenwerking met partners om het gebruik van hun ai-producten door klanten te stimuleren. ‘Het meest voorkomende samenwerkingsmodel houdt in dat partners hun branche-expertise, kennis van bedrijfsprocessen en ervaring met data-analyse inbrengen’, zegt Yi Zhang. ‘Cloudaanbieders bieden partners op hun beurt vroegtijdige exposure aan hun opkomende technologieën en bieden technische ondersteuning.’
Volgens Canalys zal het bij de cloudleveranciers een kwestie zijn om inzake ai-partners de juiste keuze te maken. ‘Leveranciers moeten het kaf van het koren scheiden als het gaat om het aansturen van hun ai-strategieën via partners.’
Het is jammer dat AI zoveel stroom verbruikt. Dat komt omdat het zgn. neurale netwerk met digitale techniek, meestal in software wordt gebouwd. Speciale grafische processoren (die ook in gamecomputers worden gebruikt) moeten het dan efficiënter maken, maar het blijft een ingewikkelde replica van iets heel simpels: de neuronen in een biologisch brein. En toegegeven, een menselijk brein verbruikt maar liefst 30% van het totale energiegebruik van een mens, maar toch valt dat in het niet vergeleken bij de stroom die AI op dit moment verstookt.
Zou je neurale netwerken in analoge hardware (met optische verbindingen) realiseren, dan kan het energieverbruik formidabel omlaag en de prestaties flink omhoog. Weliswaar is dat special-purpose hardware en dus lang niet zo generiek als een computer, maar dat is voor deze toepassing niet erg.
Vandaar dat de vraag mij bezighoudt waarom dit soort oplossingen niet meer worden onderzocht. Je zou toch zeggen dat alle AI-fabrikanten er belang bij hebben om het stroomverbruik van AI flink te verminderen?