Het jaar waarin we de muren van traditionele cloud doorbreken.
2025 gaat een jaar zijn van grote veranderingen in het cloudlandschap. Met de intrede van AI en de benodigde aanpassingen daarvoor zullen veel organisaties hun infrastructuur en cloudstructuur moeten gaan heroverwegen. Kevin Cochrane, CMO van Vultr en J.J. Kardwell, CEO van Vultr geven 7 voorspellingen over wat we kunnen verwachten dit jaar en waar ondernemingen een stap voor kunnen blijven binnen de cloudinnovatie.
1. Muren doorbreken voor de cloudinnovatie
Een handvol grote techbedrijven in de Verenigde Staten beheerst van oudsher het grootste deel van de wereldwijde infrastructuur voor cloud computing. Deze structuur veroorzaakt een lock-in en beperkt de mogelijkheid om een infrastructuur op schaal te bouwen die nodig is voor AI.
In 2025 zullen we een verschuiving zien van de “alles-in-één” commercieel beschikbare modellen naar lichtgewicht, open-source, speciaal gebouwde implementaties. Dit zal drie dingen doen: de drempel voor startups en scaleups verlagen, de toegankelijkheid verbeteren in regio’s die traditioneel niet bediend worden door de hyperscalers en zakelijke workloads efficiënter maken. Als we dit niet zien, ben ik bang dat cloud- en in het bijzonder AI-innovatie zal stagneren en dat de adoptie van AI onbetaalbaar zal worden.
2. Soevereine cloud in opmars
In 2025 zullen we een echte push zien naar soevereine en private clouds. Hyperscalers investeren in de bouw van datacenters over de hele wereld om verschillende mogelijkheden te bieden aangezien de vraag omhoog zal schieten, aangewakkerd door wetgeving, voornamelijk uit de EU. Organisaties met een flexibele, schaalbare en elastische cloudinfrastructuur zullen snel een soevereine of private aanpak kunnen hanteren. Terwijl degenen met een monolithische en rigide infrastructuur achter de feiten aanlopen.
3. Ondernemingen zullen kiezen voor kleine, speciaal gebouwde LLM’s
Kleine, speciaal gebouwde LLM’s zullen zich richten op specifieke generatieve AI en agentic AI use cases, aangedreven door retrieval-augmented generation (RAG) en vector database capaciteiten. Het aantal generatieve en agentic AI use cases zal toenemen evenals de behoefte aan inference met ultralage latentie, waardoor meer en gevarieerdere AI-modellen naar edge omgevingen worden geduwd.
4. Siliconendiversiteit zal AI-efficiëntie/rendement revolutioneren
In 2025 zal er meer aandacht zijn voor het matchen van AI-workloads met optimale computermiddelen, waardoor de vraag naar gespecialiseerde GPU’s exponentieel zal toenemen. Siliciumdiversiteit, oftewel de opkomst van zeer gespecialiseerde AI-computerchips, zal oplossingen op maat bieden voor elke fase van de levenscyclus van het AI-model. Organisaties die deze diversiteit omarmen, zullen profiteren van verbeterde AI-mogelijkheden tegen lagere kosten.
5. AI: de katalysator voor de Alt-cloud
Bedrijven hebben flexibele, schaalbare, open, samenstelbare ecosystemen nodig om het volledige potentieel van AI te gaan gebruiken. Aangezien cloud-titanen van Big Tech dit niet kunnen leveren, zullen ondernemingen kijken naar alternatieve cloudproviders om de infrastructuur te leveren die de snelle inzet van nieuwe AI-modellen ondersteunt zonder torenhoge overheadkosten.
Deze open ecosystemen zullen het monolithische, starre en dure paradigma van één leverancier verdringen dat bedrijven die dichter bij de traditionele technologische kernlanden opereren onevenredig bevoordeelt, waardoor het speelveld voor AI-innovatie in alle regio’s van de wereld gelijk wordt.
6. De grote wederopbouw van ondernemingen
Nu bedrijven hebben bepaald waar AI in hun activiteiten past en hoe ze de waarde ervan kunnen maximaliseren, gaan ze van een adoptiefase naar een reconstructiefase. Bedrijven bouwen nu hun bedrijfsactiviteiten opnieuw op met generatieve AI als kern, wat in 2025 het begin zal zijn van een tijdperk van radicale transformatie in productiviteit en operationele efficiëntie.
7. De opkomst van agentische AI zal ons naar de rand duwen
In 2025 zal agentic AI een sprong maken van denkbeeldig naar noodzakelijk en de automatisering van bedrijven snel herdefiniëren.
Vroege gebruikers op bedrijfsniveau zullen opduiken op plaatsen waar CapEx geen probleem is en krachtige GPU- en CPU-clusters inzetten voor bedrijfskritische toepassingen. Tegelijkertijd zullen lichtere agentic AI-oplossingen opbloeien via alternatieve cloudproviders, die serverloze inferentie aan de edge mogelijk maken, waardoor de kosten en complexiteit afnemen.
Om de vereiste massale schaal van AI-inferentie te ondersteunen, zullen organisaties steeds vaker gespecialiseerde modellen in combinatie met vectordatabases en RAG inzetten op edge locaties. Deze op de edge gerichte architectuur levert de ultralage latentie die nodig is voor AI-agenten om het volume aan AI-interacties dat nodig is voor agentic AI op schaal effectief te ondersteunen.
Meer lezen