BLOG – Uit onderzoek van Dataiku blijkt dat de meerderheid van Nederlandse organisaties (89 procent) de mogelijkheden van artificial intelligence (ai) ten volle benut. Ai wordt met name ingezet om de bedrijfsgroei te versnellen (58 procent), de concurrentie voor te blijven (33 procent) en kosten te besparen (8 procent).
Met de toenemende toepassing van ai en generatieve ai (gen-ai) hangt de toekomst van de interactie met het web af van het vermogen om de kracht van inference te benutten. Inference vindt plaats wanneer een getraind ai-model realtime data gebruikt om een taak te voorspellen of te voltooien, waarbij het vermogen om de tijdens de training opgedane kennis toe te passen wordt getest. Het is het moment van de waarheid voor het ai-model om te laten zien hoe goed het informatie kan toepassen van wat het heeft geleerd. Of het nu gaat om de gezondheidszorg, e-commerce of technologie, het vermogen om inzichten uit ai te benutten en personalisatie te bereiken, is cruciaal voor klantbetrokkenheid en toekomstig zakelijk succes.
Verschuiving
De industrie kan tegen het einde van 2024 een verschuiving in het landschap van webtoepassingen verwachten met de opkomst van de eerste toepassingen die worden aangedreven door gen-ai-modellen. Door ai-modellen centraal te trainen, is er uitgebreid te leren van enorme datasets. Gecentraliseerde training maakt dat modellen zijn uitgerust om complexe patronen en nuances te begrijpen, wat een solide basis vormt voor nauwkeurige voorspellingen. Het potentieel wordt zichtbaar wanneer deze modellen wereldwijd worden ingezet, zodat bedrijven kunnen inspelen op uiteenlopende markten en gebruikersgedrag.
Lokale inference houdt in dat de verwerkingskracht dichter bij de eindgebruiker wordt gebracht
De crux zit hem in de lokale inference-component. Lokale inference houdt in dat de verwerkingskracht dichter bij de eindgebruiker wordt gebracht, een cruciale stap in het minimaliseren van latentie en het optimaliseren van de gebruikerservaring. Nu we getuige zijn van de opkomst van edge computing, sluit lokale inference naadloos aan bij het distribueren van rekentaken dichter bij de plaats waar ze nodig zijn, waardoor realtime-reacties worden gegarandeerd en de efficiëntie wordt verbeterd.
Deze benadering heeft implicaties voor verschillende industrieën, van e-commerce tot gezondheidszorg. Stel je voor dat een e-commerceplatform gen-ai zou inzetten voor gepersonaliseerde productaanbevelingen, door lokale inference analyseert het platform de voorkeuren van gebruikers in realtime en levert het suggesties op maat die aansluiten bij hun directe behoeften. Hetzelfde concept is van toepassing in de gezondheidszorg, waar lokale inference de diagnostische nauwkeurigheid verbetert door snel en nauwkeurig inzicht te bieden in patiëntgegevens.
Deze verschuiving naar lokale inference heeft ook betrekking op de privacy van data en compliance. Door data dichter bij de bron te verwerken, kunnen bedrijven voldoen aan wettelijke vereisten en er tegelijkertijd voor waken dat gevoelige informatie binnen de geografische grenzen blijft zoals vastgelegd in wetten voor databescherming.
Drie strategieën
De reis naar de toekomst van ai-gestuurde webapplicaties wordt gekenmerkt door drie strategieën: centrale training, wereldwijde inzet én lokale inference. Deze aanpak vergroot niet alleen de mogelijkheden van ai-modellen, maar is ook leverancieronafhankelijk, ongeacht het cloud computing-platform of de ai-serviceprovider.
Nu we een nieuw periode van het digitale tijdperk binnengaan, moeten bedrijven de centrale rol van inference erkennen bij het vormgeven van de toekomst van ai-gestuurde webapplicaties. Hoewel de neiging bestaat om de focus te leggen op training en implementatie, is het net zo belangrijk om inference dichter bij de eindgebruiker te brengen. De gezamenlijke impact zal ongekende mogelijkheden bieden voor innovatie en personalisatie in diverse sectoren.
Kevin Cochrane is chief marketing officer bij Vultr
bijzonder.
Deze keer zou uit onderzoek blijken dat iets wel ten volle wordt benut.
Maar dat schiet natuurlijk niet op. Er moet natuurlijk iets niet in orde zijn en dat moet dan beter.
Deze keer is dat Edge computing en natuurlijk staan we aan “nieuw periode van het digitale tijdperk”
Voor wie nog niet bekend is met de concepten.
Hier wordt het kort uitgelegd : https://www.youtube.com/watch?v=Sw7MNL-01K4
Idee lijkt te zijn dat training van AI model op een andere plek plaats vond (centraal), dan waar het resultaat van een eindgebruikersvraag berekend wordt (edge).
Beetje de proxy/cashing gedachte denk ik.
Je hebt data en cpu/mem, in cloud termen compute genoemd. Uitdaging is steeds om data en compute dicht bij elkaar te houden en compute niet onbenut te laten.
Blijft lastig.
Helemaal begrijpen doet missschien alleen Bernice.