De nieuwe ai-groep van Databricks lanceert DBRX, een groot taalmodel (llm) dat bedrijven de mogelijkheid geeft zelf ai-modellen te bouwen met eigen gegevens. Het bedrijf claimt op basis van ai-benchmark-testen alle andere bestaande opensource-modellen te overtreffen. Door llm’s ‘opensource’ aan te bieden, hoopt het marktaandeel van het dominante OpenAI af te snoepen.
Het bedrijf van Ali Ghodsi probeert inkomsten te genereren uit het bijstaan van bedrijven die op DBRX willen voortborduren maar zelf niet alle kennis in huis hebben voor het bouwen, trainen en gebruiken van eigen modellen. In de cloudwereld, waar Databricks als leverancier van beheersystemen voor databases uit afkomstig is, werkt die aanpak. Databricks denkt dat dit ook in de ai-wereld gaat lukken, maar dat moet nog blijken.
Uit recent onderzoek van investeerder Andreessen Horowitz blijkt dat bijna zestig procent van de ai-leiders oren hebben naar meer opensource-gebruik, of erop willen overstappen wanneer gefinetunede opensource-modellen de prestaties evenaren van closed-source-modellen.
Ghodsi ziet drie redenen waarom DBRX succes kan hebben. Zoals gezegd presteert het model beter dan andere opensource-modellen in vergelijkende metingen. DBRX zou Meta’s Llama 2 70B en Mistral’s Mixtral-8x7B passeren, onder meer op gebied van taalbegrip, wiskunde en logica. Volgens de ceo verslaat het ook OpenAI’s GPT-3.5 in de meeste benchmarks. Derde troef is dat DBRX gebruik maakt van een ‘mixture-of-experts’-architectuur, waardoor het taalmodel zeer kosteneffectief een hoog aantal tokens per seconde verwerkt.
Overigens gokt Databricks op meerdere paarden. Onlangs werd een investering en partnerschap aangekondigd met het Franse ai-bedrijf Mistral. Dankzij de samenwerking hebben klanten van Databricks toegang tot native Mistral-modellen via de Databricks Marketplace. De startup uit Parijs die zich steeds profileerde als Europees antwoord op Amerikaanse Big Tech, werkt ook al nauw samen met Microsoft.