Geef een ai-engine terabytes aan data, laat een serverpark megawatt verstoken om al die gegevens te analyseren en we hebben een intelligente kennisbank die zijn weerga niet kent. Het klinkt mooi.
Je kunt je niet voorstellen dat een vraag ‘welke kleur heeft een konijn?’ standaard met ‘wit’ beantwoord wordt, simpelweg omdat onze ai-engine alleen maar boeken over Nijntje heeft gelezen. Maar dit simpele voorbeeld geeft aan dat ai alleen maar goede en intelligente antwoorden kan geven als het de juiste input heeft gekregen. Met andere woorden, als het met het juiste lesmateriaal is gevoed.
En nu gaan grote organisaties ai ‘voeden’ met informatie uit hun systemen, met data uit verschillende bronnen maar ook logbestanden en andere informatiebronnen. Op basis van al die gegevens zullen er algoritmes ontstaan vanwege de verbanden die ontdekt worden. Laten we eens kijken naar twee voorbeelden van de enorme impact als het ‘lesmateriaal’ incompleet, niet realistisch of gewoon fout is.
Tijdstippen
Eerste voorbeeld. Onze belangrijkste data worden op verschillende tijdstippen (dagelijks en wekelijks) geüpdatet met gegevens uit andere applicaties en data van derde partijen. Ai zal dit als patroon herkennen en dus, bij analyses, dit gedrag als ‘normaal’ interpreteren. Maar dankzij voortschrijdende technologie gaan we op enig moment niet langer met data-extracten werken, maar met api’s die gegevens realtime uitwisselen.
Wat gaan we doen? Wie weet straks nog hoe we ai moeten vertellen dat vanaf 1 juli dit nieuwe gedrag ‘normaal’ is? Of verwachten we dat ai dit zelf ziet? En hoelang duurt dat dan voordat er voorspellingen gedaan worden die gebaseerd zijn op de nieuwe situatie?
Constante stroom
Tweede voorbeeld. Bij de implementatie van een nieuwe api die een combinatie van applicaties aanroept om de financiële applicatie te updaten, blijkt al snel dat het aantal api-verzoeken nogal varieert. De constante stroom van boodschappen dat er ‘afwijkend’ gedrag geconstateerd wordt, doet een junior beheerder besluiten om wekenlang standaard aan te geven dat alle geconstateerde afwijkingen ‘normaal’ zijn en de machine learning/ai-engine zal dit meenemen in de algoritmes. Elke wijziging in het applicatielandschap, maar ook een api-man-in-the-middle-aanval zal door ai als ‘normaal’ gezien worden en er zullen geen events meer op de consoles verschijnen.
In beide gevallen is vooral aandacht gegeven aan het leerproces, maar is er ooit nagedacht over het afleerproces? Wat we weten allemaal dat it complex is en constant aan verandering onderhevig. Applicaties worden afgebouwd, features worden toegevoegd, systemen worden sneller en opslagcapaciteit wordt groter.
Wat is het change management proces dat we moeten gaan inrichten om te zorgen dat ai niet denkt dat konijnen altijd wit zijn? We weten dat sommige ai-engines pleasers zijn die altijd een mooi antwoord willen geven. We weten ook dat ai kan gaan hallucineren en, alsof dat al niet genoeg is, we weten nu ook dat ai hardleers kan zijn, en tegelijkertijd té gehoorzaam. Toch eerst maar eens beginnen aan een data- en integratiestrategie? Want als we dan toe zijn aan het voorzichtig implementeren van ai, dan weten we in elk geval dat de data op orde is.
(Auteur Marcel den Hartog is trend & development expert bij Enable U.)
Ja, het was maar een voorbeeld maar toch eens nagevraagd bij chatgpt met de stelling + vraagteken :
‘Konijnen zijn altijd wit ?
Nee, konijnen zijn niet altijd wit. Er zijn verschillende soorten konijnen met verschillende kleuren en patronen, zoals bruin, zwart, grijs, gevlekt en zelfs albino. De kleur van een konijn wordt bepaald door zijn genetica en kan variëren afhankelijk van het ras en de individuele kenmerken.’
“Wat is het change management proces dat we moeten gaan inrichten om te zorgen dat ai niet denkt dat konijnen altijd wit zijn?”
Blijkbaar wordt gadviceerd om te denken in changemanagement processen die ingericht moeten worden 😉 omdat AI pleasing, hallucinerend, hardleers en ongehoorzaam zou zijn :-P. Allemaal menselijke eigenschappen. En best wel indrukwekkend van AI om al zulke genuanceerde antwoorden te kunnen geven als je hardleers bent.
Waar kunnen we maar beter vertrouwen in hebben ? AI of trend & development experts met hun processen..
Klinkt menselijk, een AI-engine die in de knikkertijd leerde dat alle konijntjes wit zijn en Zwarte Piet zo zwart als roet is. Als het om afleren gaat lijkt een computer me makkelijker te herprogrammeren dan een mens.