Werkstroomautomatiseerder Appian biedt zijn klanten een private artificiële-intelligence (ai)-omgeving aan waarbij ze zelf de regie houden over hun gegevens. Data worden niet via internet gestuurd naar een publiek ai-model maar blijven in huis.
‘Bij Appian houden we ons al zeker tien jaar bezig met kunstmatige intelligentie, bijvoorbeeld om documenten en e-mails automatisch te classificeren’, vertelt topman Matt Calkins tijdens zijn toespraak op de gebruikersconferentie Appian 2023 vorige week in Londen. ‘Maar we waren tot voor kort nog niet bezig met generatieve ai en LLM’s – large language models. Die snelle groei sinds de start van ChatGPT een jaar geleden hadden we niet zien aankomen.’
Het bedrijf is er voortvarend mee aan de slag gegaan en biedt inmiddels integraties met ChatGPT, een Appian AI Skill Designer (een low-code manier om machine learning modellen te bouwen, trainen en implementeren) en een Appian AI Copilot om ai-gegenereerde inzichten uit data te halen. Daarvoor biedt het bedrijf klanten een ‘private ai’-omgeving, benadrukt Calkins. ‘Organisaties beseffen steeds meer dat ze hun waardevolle data niet via internet moeten overhevelen naar big-tech-bedrijven om er publieke ai-tools mee te trainen. Ze willen die gegevens in huis houden en gebruiken met behulp van private ai. Die mogelijkheid bieden wij met een combinatie van onze data-fabric-mogelijkheden en ai-tools.’
Getraind of ongetraind
Er zijn in zijn ogen drie mogelijkheden om aan de slag te gaan met de kracht van generatieve ai en LLM’s. ‘De eerste is dus de publieke ai, zoals ChatGPT, maar als organisatie wil je niet dat jouw bedrijfskritische gegevens daar worden verwerkt. De tweede is het binnen je eigen muren opzetten van een eigen open-source-ai-tool die je traint met eigen gegevens. Maar dat is een complex en duur traject. De derde mogelijkheid, die wij dus voorstaan, is het in een private cloud gebruiken van een ‘plain vanilla’ ai-tool die gebruikers kunnen bevragen met behulp van data fabric.’
De Appian-topman wijst er op dat zijn bedrijf de afgelopen jaren flink heeft geïnvesteerd in het opzetten van een data-fabric-praktijk. Appians Data Fabric voegt data uit verschillende bronnen samen in een uniform datamodel zonder gegevens te verplaatsen en kan razendsnel query’s uitvoeren. ‘Organisaties beschikken over heel veel data maar hebben daar weinig aan als die niet à la minute raadpleegbaar zijn. Dan vormen gegevens eerder een ballast. Ons data-fabric-platform met zijn virtuele database is hier een oplossing voor.’
Plain vanilla ai-tool
‘In ons nieuwe concept combineren we onze data-fabric-architectuur en de kracht van LLM’s in een private-ai-omgeving’, stelt Calkins. ‘Wil een klant een vraag stellen aan de plain vanilla ai-tool dan haalt die eerst met een data-fabric-query zoveel mogelijk relevante gegevens uit de bedrijfssystemen, rekening houdend met compliance- en privacyregelgevingen. Vervolgens stuurt de klant de vraag met de vergaarde gegevens naar de ongetrainde ai-tool voor de broodnodige context. Eigen onderzoek wijst uit dat je vervolgens uitstekende antwoorden krijgt.’
Dit concept is in zijn ogen, naast dat het de bedrijfsgegevens van klanten beschermt, veelbelovend omdat het overzichtelijker en goedkoper is: je hoeft je data niet naar een derde te sturen, je hoeft geen duur ai-algoritme te trainen en te onderhouden, je hoeft geen dure data-upload-vergoedingen te betalen aan cloudproviders en het is makkelijker te auditen: je weet immers bij elk antwoord van de private ai waar de data vandaan komen. Dat betekent ook dat je bij foute antwoorden makkelijker kunt checken of de beginvraag wel goed gesteld was. ‘Compliance is een groot vraagstuk bij ai, maar dat hebben wij in onze private-ai-omgeving goed afgehandeld. Dit concept gaan we de komende tijd verder uitwerken.’
Interessant artikel!