Volgens Forbes hebben organisaties vorig jaar 62 procent meer uitgegeven aan kunstmatige intelligentie (ai). Deze ai-initiatieven werden vaak gedreven vanuit de centrale organisatie en meer als experiment gezien dan een onmisbare activiteit. Nu we in de tweede helft van 2020 zitten, zie je dat dit verschuift en wordt ai zelfs essentieel om te overleven. Om flexibel in te inspelen op de uitdagingen die deze onzekere tijd met zich meebrengt, zijn er vier manieren om ai te benutten.
De eerste manier is om te zoeken naar kansen voor optimalisatie. Steeds meer organisaties gebruiken enterprise-ai om waar mogelijk processen te optimaliseren en meer te doen met minder. Deze use cases hebben een duidelijk doel en een tastbare roi. En binnen iedere organisatie, ongeacht de branche zijn er wel gebieden die geoptimaliseerd kunnen worden door ai-processen. Bijvoorbeeld:
- Optimalisatie van marketinguitgaven met attributie door machine learning in te zetten voor hyperpersonalisatie.
- Optimalisatie van de allocatie van het beschikbare personeel, door met machine learning factoren als het weer, het verkeer en databronnen over andere steeds wijzigende factoren mee te nemen.
- Het terugbrengen van downtime en verbeteren van de kwaliteit van apparatuur en productiemiddelen, door met machine learning te voorspellen wat de beste timing is voor onderhoud.
Ten tweede kun je onderzoeken waar je versnelling mogelijk is. AIle use cases die ervoor zorgen dat organisaties snel kunnen handelen op kritieke gebieden, zijn interessant in economisch dynamische tijden. Gezien het huidige economische klimaat moeten organisaties meer dan ooit voorrang geven aan projecten die binnen enkele weken resultaat opleveren in plaats van binnen maanden of jaren.
Het succesvol prioriteren van de ‘time-to-value’ betekent een combinatie van het kiezen van de juiste use cases. Deze moeten groot genoeg zijn om voldoende impact te hebben, maar niet zo grootschalig dat het langer duurt om hiervoor intern groen licht te krijgen en te implementeren. Daarnaast gaat het om de juiste tools die het pad naar enterprise-ai zo gestroomlijnd mogelijk maken. Effectieve data science, machine learning en ai-platformen bieden deze ervaring. Ze verminderen de tijd die het kost om data te verzamelen, op te schonen, machine learning-modellen te creëren en ze naar productie te brengen.
Herbruiken
Vervolgens kun je zaken benutten uit andere projecten die je kunt hergebruiken. Data science, machine learning en ai-initiatieven brengen allemaal kosten met zich mee. Echter kunnen organisaties in een tijd waar het optimaliseren van kosten belangrijker is dan ooit, de kosten van AI beheersen en rechtvaardigen? Ongeacht of ze net starten of een efficiencyslag willen maken.
Hergebruik is het simpele concept van het vermijden van dubbel werk in ai-projecten. Van kleine details, zoals stukjes code die gedeeld kunnen worden om datapreparatie sneller te laten verlopen tot op macroniveau zoals ervan verzekerd zijn dat twee data scientists die werkzaam zijn bij verschillende bedrijfsonderdelen niet aan hetzelfde project werken. Kapitalisatie in enterprise ai brengt hergebruik naar een ander niveau. Het gaat erom om de kosten van een initieel ai-project,vaak het vinden, opschonen en prepareren van data te delen met andere projecten waardoor je als het ware meerdere use cases krijgt voor de prijs van één.
Modellen
Tot slot is het belangrijk kritisch naar je modellen te kijken. In turbulente tijden moeten organisaties data science-projecten snel kunnen bijsturen. Veel van de aannames die de basis vormen van bestaande machine learning-projecten zijn niet langer van toepassing.
De belangrijkste vragen voor organisaties die in disruptieve tijden modellen in productie hebben, zijn:
- Zijn de behoeften van de business ten aanzien van de modellen in de huidige omstandigheden veranderd?
- Is de beschikbaarheid, betrouwbaarheid en relevantie van de data die wordt gebruikt veranderd? En zo ja, kunnen nieuwe databronnen relevanter zijn en beter aansluiten bij het doel van de voorspelling?
- Kloppen de voorspellingen of de modellen nog steeds op detailniveau?
- Moeten de voorspellingen op een andere manier worden gebruikt in een dynamische periode? Bijvoorbeeld als de voorspellingen voorheen gebruikt werden door een groter geautomatiseerd systeem, zou er dan een menselijke expert aan het proces moeten worden toegevoegd?
Minder hype en meer realiteit graag. Naar mijn mening is het vooral de toevoeging van nieuwe meettechnieken via de belofte van IoT welke ervoor zorgt dat downtime als gevolg van preventieve onderhoudscycli terug te brengen is. Van gebruikelijke statistische modellen met gissen=missen van gemiddelden naar meten=weten. Wat echter niet verteld wordt is dat dit ook tot meer data leidt. En hetzelfde geldt voor de allocatie van goederen, voorraden e.d. waardoor een organisatie rekening moet houden met 1 PB aan machine gegenereerde data per dag. So don’t blame the messenger maar het gerucht (volgens onderzoek uit 2017) gaat dat nog lang niet alle bedrijventerreinen ook goede upstream verbindingen hebben en daarmee klaar zijn voor alle ’toekomstige revolutionaire diensten’ in de cloud. Oja, ik zie net als Gartner steeds meer pre-processing middels edge AI en ben benieuwd of Dataiku zo’n delivery model heeft. Want de AI algoritmen waarmee je een concurrentievoordeel weet te behalen behoren uiteindelijk tot de ‘kroonjuwelen’ van een organisatie.