De containerrevolutie in it zet zich verder door. Ook klanten van datacloudspecialist Snowflake zullen in staat zijn om container-applicaties te draaien. De lancering gebeurt in het licht van toepassingen rond ai en zogenaamde large language modellen (llm’s).
‘Het is alsof de letters a en i de enige twee letters in het alfabet zijn’, zo opende Frank Slootman, ceo van Snowflake, zijn keynote op Snowflake Summit, de gebruikersconferentie die loopt in Las Vegas. Net zoals bij veel andere it-leveranciers en diens klanten zet Snowflake in op containers op hun datacloud, en dat voornamelijk ook in functie van ai. Het biedt de mogelijkheid om hele apps en diensten die al bestaan te ‘containeriseren’ en dan volledig ingekapseld bij hen te draaien. ‘Dit is echt een grote vooruitgang voor ons omdat het letterlijk alles en iedereen toelaat om te draaien op het Snowflake-platform, gebruikmakend van onze engine en ons governance framework’, aldus Slootman.
Containers zijn een zogenaamde abstractie-laag in een infrastructuur. In een container zitten eigenlijk alle afhankelijkheden van de software. Het is ook in het licht van ai en zogenaamde large language modellen dat het Snowflake-aanbod moet worden aanzien. ‘Met het containeriseren van llm’s is de cirkel rond met hoe we llm’s en ai-services gaan hosten’, aldus Slootman. ‘We hoeven ze niet aan te passen, ze kunnen gewoon draaien zoals ze zijn in een container op Snowpark (waar ontwikkelaars code schrijven in hun taal van voorkeur en die code op Snowflake te draaien – WV). Het is een snelle en betrouwbare manier om deze nieuwe engines en services in te zetten.’
Met Snowpark voor Python, dat in 2022 is uitgebracht, kunnen klanten onder meer Python direct in Snowflake draaien. De nieuwe Snowpark Container Service bouwt hier op verder en moet helpen om ontwikkelaars en datawetenschappers aan te trekken op Snowflake. Wat Snowflake lanceert komt neer op een beheerde, beveiligde Kubernetes-service.
Snowpark Container Services is in private preview. Het moet gebruikers de flexibiliteit bieden om te bouwen in elke programmeertaal en te implementeren op bredere infrastructuurkeuzes, inclusief het Nvidia ai-platform, het resultaat van de nieuwe samenwerking met Nvidia.
Dat alles is goed nieuws voor zij die ai-workloads willen uitvoeren op Snowflake zonder bedrijfseigen data bloot te leggen. Het is een belangrijke stap in de richting van de visie van Snowflake om een veelzijdig dataplatform te zijn dat data-science workloads en applicaties zelf laat lezen en schrijven naar het datawarehouse, in plaats van nieuwe een wirwar van applicaties die data naar verschillende governance- en compliance-regimes leiden.
Data voorop
De nieuwe service moet alle complexiteit van het beheer van platform- en resource-overwegingen wegnemen van diegenen die llm’s, ml- of ai-implementaties willen bouwen en deze laten draaien op data die ‘binnen’ Snowflake worden gehost. ‘Het is een belangrijke stap die klanten de mogelijkheid biedt om meer operationele gegevens en analytische gegevens naar het bedrijf te brengen’, klinkt het bij Snowflake, dat zijn oorspronkelijke bestaansrecht als data-analytics warehouse meer en meer lijkt te verlaten. Al staan data nog steeds voorop.