Cloudflare heeft deze week bekendgemaakt dat ze het serverloze ontwikkelaarsplatform gaan uitbreiden met functionaliteit om het ontwikkelen en toepassen van zakelijke AI-applicaties verder te vereenvoudigen. Daarvoor gaat deze wereldwijde aanbieder van cloudconnectiviteit nauwer samenwerken met Databricks, Hugging Face, Meta en Microsoft
Databricks en Cloudflare breiden hun samenwerking uit om MLflow-mogelijkheden naar ontwikkelaars te brengen die bouwen op Cloudflare’s serverloze ontwikkelaarsplatform. Cloudflare sluit zich aan bij het open source MLflow-project als actieve deelnemer om de kloof te overbruggen tussen het trainen van modellen en het eenvoudig toepassen ervan op Cloudflare’s wereldwijde netwerk. Daarop kunnen AI-modellen dicht bij eindgebruikers draaien voor een ‘low-latency’ ervaring.
Cloudflare gaat met Hugging Face het gebruik van de beste open AI-modellen toegankelijker en betaalbaarder te maken voor ontwikkelaars. Cloudflare wordt de eerste serverloze GPU voorkeurspartner voor het gebruik van Hugging Face-modellen. Daardoor kunnen ontwikkelaars snel en eenvoudig wereldwijd AI inzetten, zonder dat zij zich zorgen hoeven te maken over het beheer van de infrastructuur en zonder te betalen voor ongebruikte rekencapaciteit. Hugging Face gaat ook geoptimaliseerde generatieve AI-modellen aanbieden voor Cloudflare’s nieuwe AI-inferentieplatform.
Cloudflare gaat met Meta samenwerken om het Llama 2 open source large language model (LLM) wereldwijd beschikbaar te maken voor ontwikkelaars die AI-toepassingen willen bouwen op het serverloze Cloudflare Workers platform. Daarmee kunnen de beide partners lokale inferenties voor iedereen aanbieden, waarbij de privacy voorop staat.
Tenslotte gaan Cloudflare en Microsoft het voor bedrijven makkelijker maken om AI-toepassingen te draaien op de locatie die het beste past bij hun behoeften. Door gebruik te maken van ONNX Runtime kunnen Cloudflare en Microsoft ervoor zorgen dat AI-modellen kunnen worden uitgevoerd waar verwerking het meest zinvol is, van de hyperscale cloud tot het hypergedistribueerde Edge Network en op de apparaten van gebruikers zelf.