Qua marktaandeel is Google Cloud het kleine broertje in de hyper-cloudwereld, maar het bedrijf weert zich. Op de jaarlijkse Google Cloud Next-conferentie in Las Vegas heeft Google een reeks aankondigingen gedaan die hun ai-innovatie moeten helpen onderstrepen. Drie strategische pijlers staan daarbij voorop.
Uit recente cijfers van Canalys blijkt dat Google Cloud qua marktaandeel van 11 procent in de markt van cloudinfrastructuurdiensten op enige afstand ligt van AWS (33 procent) en Microsoft Azure (20 procent). Terwijl in onze contreien vooral Microsoft Azure voorop ligt.
Maar dat is natuurlijk enkel cloudinfrastructuur, en dat is het heden. De toekomst, die wordt gedragen door artificiële intelligentie, creëert een new ball game, is de teneur op het Google Next-event.
Het bedrijf maakt duidelijk dat het zich wil onderscheiden van concurrenten door te focussen op drie kerngebieden: het aanbieden van een volledig ai-geoptimaliseerd platform, een open multicloud-benadering en interoperabiliteit tussen verschillende systemen. Deze drie pijlers liepen als rode draad doorheen de aankondigingen die Google deed.
Krachtige infrastructuur
Alles voor ai. En dat begint al met een krachtige AI Hypercomputer van Google Cloud, bestaande uit hardware, software en gebruiksmodellen, om ai-implementaties te vereenvoudigen, prestaties te verbeteren en kosten te optimaliseren. Hierbij hoort ook de zevende generatie van Google’s Tensor Processing Units (TPUs), codenaam ‘Ironwood’, die later dit jaar beschikbaar zal komen. Vergeleken met de vorige generatie biedt Ironwood vijf keer meer rekenkracht en zes keer meer high-bandwidth geheugencapaciteit. Volgens Google is Ironwood de krachtigste chip die het bedrijf ooit heeft gebouwd.
Een andere belangrijke infrastructuurontwikkeling bij Google is de introductie van Cloud Wide Area Network (Cloud WAN). Google’s wereldwijde privénetwerk, dat meer dan tweehonerd landen en gebieden bedient met ruim twee miljoen kilometer glasvezel, is nu beschikbaar is voor bedrijven over de hele wereld.
Gemini en GDC
Google kondigde in zijn ai-reeks ook Gemini 2.5 aan, wat het beschrijft als een ‘denkend model’ dat zijn gedachten kan doorgronden voordat het antwoord geeft. Daarnaast komt er een Gemini 2.5 Flash-variant, gericht op lage latentie en kostenefficiëntie.
Die modellen komen via Google Distributed Cloud van Google ook naar lokale (on-premise) omgevingen. ‘We werken samen met Nvidia om Gemini beschikbaar te maken op Nvidia Blackwell-systemen, met Dell als belangrijke partner. Hierdoor kan Gemini lokaal worden ingezet, zowel in afgesloten (air-gapped) als verbonden omgevingen’, zo klinkt het bij Google.
Naast de technologie is er ook de toepassing. Het gebruik van Gemini en andere ai-modellen groeit snel binnen het Google-ecosysteem. Er zijn nu meer dan vier miljoen ontwikkelaars die bouwen met Gemini-modellen. Volgens Google gaat het om een twintigvoudige toename in het afgelopen jaar in het gebruik van Vertex AI, het platform van Google Cloud voor het bouwen en beheren van ai-toepassingen en -agents.
Open aanpak
Met de toevoeging van Lyria aan Vertex AI wil Google zich bovendien positioneren als het platform voor generatieve mediamodellen voor video, afbeeldingen, spraak en muziek. Google breidt ook zijn AI Agent Marketplace uit, een speciale sectie binnen Google Cloud Marketplace waar klanten ai-agents van partners kunnen ontdekken en aanschaffen.
Want het is, naast hun ai-geoptimaliseerd platform, ook interoperabiliteit en de open aanpak die het verschil moet maken met de concurrentie. Zo benadrukt Google zijn open multi-cloud aanpak. Door tools als Agent Development Kit (ADK) als open-source aan te bieden en het Agent2Agent (A2A) protocol te introduceren, wil Google aantonen dat het gelooft in een open ecosysteem waar bedrijven niet gebonden zijn aan één leverancier. Dat lijkt zowel nobel als noodzakelijk. If you can’t beat them, join them.