Artificiële intelligentie is goed ingeburgerd in de bedrijfswereld en bij uitbreiding in de hele samenleving. Natuurlijk is deze technologie voortdurend in ontwikkeling. Het hoeft dan ook niet te verbazen dat ai een hoofdrol opeist in de trends die Gartner identificeert als de factoren voor technologische innovatie in de komende jaren. Twee opvallende trends uit het rapport zijn: 'formative ai' en 'algorithmic trust’.
De wereld is de voorbije maanden grondig door elkaar geschud. Veel bedrijven waren al voor de crisis aan een digitale transformatie begonnen en gebruiken technologie om zich aan te passen aan de nieuwe realiteit. In die context past ook formative ai, volgens Gartner een van vijf belangrijke trends die de toekomst van technologische innovatie zullen bepalen.
Intrinsiek zijn alle vormen van ai tot op zekere hoogte formatief te noemen. Concreet houdt ai in dat je oude data door een algoritme haalt om een model te maken. Daarmee kan je voorspellingen over de toekomst doen, dus eigenlijk over nieuwe data die je nog niet gezien hebt.
In de bankwereld moeten ‘regels’ bijvoorbeeld fraude identificeren. Die regels zijn opgesteld door mensen die kunnen rekenen op jarenlange ervaring met fraudedetectie. Een factor kan de hoeveelheid geld zijn die bij een transactie betrokken is. Omdat de definitie van een ‘groot geldbedrag’ onder invloed van inflatie verandert, moeten de regels regelmatig een update krijgen. Dankzij machine learning kan je een model maken dat voortdurend bijleert en regels updatet op basis van nieuwe informatie en dus dynamisch is.
Nieuwe modellen produceren
Een model past zich automatisch aan wanneer je het traint, waardoor ai volgens de omschrijving van Gartner per definitie altijd formatief is. De trend die het rapport aanhaalt, verwijst daarom vooral naar een vernieuwende manier waarop bedrijven bepaalde ai-technologieën gaan gebruiken. Succesvolle ai-modellen zijn doorgaans ontwikkeld om een enkele vraag te beantwoorden. Daar zijn ze heel accuraat in. Maar bedrijven willen op meer en meer vragen een antwoord krijgen. Daarom is het interessant om een tool te bouwen die andere modellen kan produceren zonder dat er telkens inbreng van een data scientist nodig is.
Gartner noemt in de studie verschillende vormen van ai die in deze context passen. ‘Self-supervised learning’ is een manier om computers taken te laten uitvoeren zonder dat mensen alle data moeten labelen. Om een model te trainen, moet iemand het algoritme vertellen welke datavoorbeelden geassocieerd worden met een juist antwoord en welke met een foutief antwoord – meestal duizenden tot zelfs miljoenen keren. Bij self-supervised learning wordt dat enorme aantal voorbeelden automatisch gegenereerd uit een kleinere hoeveelheid data. Afbeeldingen kunnen bijvoorbeeld geroteerd, weerspiegeld, ingezoomd en bijgesneden worden om meerdere voorbeelden uit één afbeelding te halen.
Het oude of nieuwe normaal?
Laten we formative ai eens bekijken in de context van de pandemie die ons al maanden teistert. Toen het virus uitbrak, hadden we maar weinig aan historische data om de toekomst te voorspellen. Er is immers nooit eerder een pandemie geweest waarop we ons kunnen baseren. Ondertussen zijn we maanden later en beschikken we over data die ons helpen om voorspellingen te doen over het nieuwe normaal. Alleen weten we nog altijd niet hoelang het herstel na zo’n pandemie duurt en kan een model dus enkel een onderbouwde gok doen.
Naarmate we meer historische data toevoegen, zullen voorspellingen opnieuw in de richting van het oude normaal evolueren. Door nieuwe data te laten domineren, zijn predicties dan weer meer op het nieuwe normaal gebaseerd. Door verschillende ai-modellen te gebruiken, wordt het dus mogelijk om allerlei scenario’s te voorspellen. Dat betekent wel dat je nog steeds een goede menselijke chauffeur nodig hebt om te bepalen in welke richting het bedrijf gestuurd moet worden. Formative ai is dus geen zelfrijdende wagen, maar eerder een navigatiesysteem dat ons in staat stelt om betere keuzes te maken.
Algoritmisch vertrouwen
In hoeverre mogen we een algoritme blind vertrouwen of moeten we de resultaten toch in vraag stellen? Vaak zien we dat mensen na een tijdje niet meer twijfelen over de resultaten die een ai-model genereert. Maar wat als ai de mist ingaat omdat er bias aanwezig is in de ingevoerde data?
Een bekend voorbeeld hiervan is de rekruteringstool die Amazon enkele jaren geleden ontwikkelde. Het ai-model moest op basis van een groot aantal cv’s de beste kandidaten voor de job weerhouden. De tool werd getraind door datapatronen te identificeren in een grote hoeveelheid historische data, met name cv’s die in de voorbije tien jaar behandeld zijn. Helaas bleek uit de data dat in die periode vooral mannen zijn aangeworven, waardoor de tool automatisch vrouwelijke kandidaten ging discrimineren. Het bewuste ai-model is afgevoerd.
Aan de keerzijde zien we dat er ook nog een gebrek aan vertrouwen in ai bestaat. Dat valt soms wel te verklaren, bijvoorbeeld omdat sommige werknemers ai-technologie als een bedreiging voor hun jobs zien. In de eerste plaats biedt ai potentieel om saaie taken over te nemen, zodat werknemers zich op interessantere dingen kunnen focussen. Het is ook begrijpelijk dat werknemers zich afvragen hoe een computer iets kan overnemen waar ze zelf jarenlang voor moesten trainen. Succesvolle ai-technologie is enkel mogelijk als er vertrouwen bestaat bij het personeel dat ermee werkt. Er is dus meer transparantie nodig.
Explainable ai
Om dit mogelijk te maken, is er in de toekomst een grote rol weggelegd voor ‘explainable ai’. Stel dat sociale media een computermodel gebruiken om haatboodschappen te herkennen, dan zou ai een bericht kunnen bestempelen als haatdragend of niet. In een volgende stap wil je dat het ai-model ook uitlegt waarom het vermoedt dat een bepaald bericht een haatboodschap bevat. Het kan bijvoorbeeld wijzen op een woord of een foto die bij het bericht staat.
Wanneer we ai naar een hoger niveau tillen, bijvoorbeeld in de juridische wereld, dan moet je kunnen verifiëren waarom je onder impuls van ai een bepaalde beslissing genomen hebt. Op dit vlak hebben we nog een hele weg af te leggen, maar in de toekomst zal het zeker mogelijk zijn om alle vormen van ai transparant te maken. Dat zal helpen om bias te herkennen en om te verklaren waarom een model bepaalde keuzes maakt. En zo zullen het vertrouwen in de technologie en de mogelijkheden van ai verder kunnen toenemen.
Auteur: Simon Price, data scientist bij Unisys