Ons leven is doordrongen van toepassingen die gebaseerd zijn op kunstmatige intelligentie (ai), zoals virtuele assistenten, slimme thermostaten en navigatie-apps. Ai wordt – bewust en onbewust – dagelijks door miljoenen consumenten gebruikt. Maar de introductie van ai op de werkplek blijkt lastig.
Terwijl de gemiddelde Nederlander zonder erbij stil te staan informatie opvraagt bij Siri of de weg zoekt via Google Maps, is diezelfde Nederlander een stuk kritischer wanneer ai zijn werk betreft. De onboarding van nieuwe medewerkers of de afhandeling van vragen van klanten, om maar een paar voorbeelden te noemen, wordt niet zonder meer ‘aan een computer overgelaten’.
Overal waar ik vanuit mijn functie kom, zie ik dan ook de behoefte om de zwarte doos rond de ai-toepassing uit elkaar te halen en kunstmatige intelligentie ‘verklaarbaar’ te maken. En opmerkelijk genoeg voel ik die behoefte in alle lagen van een bedrijf, van het topmanagement tot op de werkvloer.
Vertrouwen is cruciaal
De afgelopen jaren zijn gekenmerkt door een sterke opkomst van ai-gedreven tools op de werkplek, zoals toepassingen voor het identificeren van leads, het verwerken van facturen, het werven van personeel, of het ontwikkelen van marketingstrategieën. Stuk voor stuk tools om taken sneller en efficiënter uit te voeren.
En hoewel de helft van de zakelijke wereld ai als een prioriteit beschouwt, en twee derde een ‘ai first’-cultuur aanhangt, blijft een gebrek aan vertrouwen in ai een grote hindernis bij het uitrollen van ai-tools in bedrijven. Het probleem is namelijk dat werknemers niet voetstoots aannemen dat deze tools hen daadwerkelijk helpen om werk effectiever te maken.
En dat is niets nieuws; ook Gartner gaf al in 2018 aan dat het scheppen van vertrouwen een grote rol speelt bij het uitrollen van ai-tools. Als medewerkers alleen de output van het algoritme te zien krijgen zonder dat het ‘waarom’ uitgelegd wordt, wanen ze zich weer in hun kleutertijd. ‘Omdat ik het zeg’ is vanaf een bepaalde leeftijd geen valide argument meer, dus ook niet als je geconfronteerd wordt met ai. Het gebrek aan vertrouwen is dan ook een reden gebleken om de desbetreffende toepassing te verwerpen.
Scepsis en boosheid
Veel mensen wijzen ai niet alleen af uit scepsis, maar uit boosheid. Dat is begrijpelijk: die nieuwe tool die taken sneller en beter zou kunnen uitvoeren, kan bedreigend overkomen. En laten we eerlijk zijn: ai kan inderdaad bedreigend zijn, voor bepaalde functies. En dat is precies de reden waarom het concept ‘verklaarbare ai’ langzaam terrein lijkt te winnen.
Dit concept gaat ervan uit dat er behoefte is aan systemen die medewerkers uitleggen hoe een ai-tool werkt en hoe die zijn conclusies trekt. Ai op ai dus. Er zijn al startups opgericht die zich richten op verklaarbare ai. Bedrijven bijvoorbeeld die andere bedrijven helpen om bias te voorkomen, hetgeen cruciaal is in sterk gereguleerde sectoren als de gezondheidszorg en de financiële dienstverlening.
Bovendien zijn er al wetten en regels in de maak met betrekking tot ai, en die zullen ook hun uitwerking hebben op het bedrijfsleven. Bedrijven zullen dan voor de nodige transparantie moeten zorgen, zowel voor hun klanten als voor de autoriteiten.
En dat is een uitstekende ontwikkeling. Machine learning en ai worden nog veel te veel gezien als een bedrijfsrisico. Als iets ook maar een beetje ruikt naar bias – en dat hoeft niet eens waar of bewezen te zijn – geef je je klanten al reden om je producten te wantrouwen. Door een goede regelgeving en een uitleg van hoe ai tot zijn resultaten komt, maak je daar een einde aan.
Spagaat
Natuurlijk begrijp ik als geen ander dat de noodzaak aan verklaarbare ai sommige bedrijven in een spagaat dwingt. Want hoe geavanceerder en krachtiger een ai-tool is, hoe ingewikkelder het algoritme erachter is en hoe moeilijker het is om het uit te leggen.
En die spagaat zal nog wel een tijdje blijven bestaan. Vooralsnog kunnen de bedrijven dus kiezen voor een model dat ‘goed genoeg is’, en dat daarom niet al te moeilijk te verklaren is, met de kans dat de adoptie ervan redelijk soepel verloopt. Ofwel kiezen ze voor een model dat in alle opzichten geweldig geavanceerd is en dat de concurrentie op elk gebied wegvaagt. Maar dat wel het risico met zich meedraagt dat het veel lastiger te verklaren is, en snel in onbruik raakt omdat mensen het niet vertrouwen.
‘Verklaarbare ai’ zal zich verder ontwikkelen, en snel aan belang winnen.
Chris Pope, vice president Innovation bij Servicenow
Boeiend verhaal, waarin nog wel wat dubbelzinnigheden zijn aan te wijzen.
Ook hier vliegen de Engelse termen je weer om de oren, maar helaas niet van het onderwerp waar het hier om draait, namelijk ‘verklaarbare ai’.
Verklaarbare ai zal in het Engels wel Explainable AI zijn, en ‘to explain’ is in het Nederlands dan weer:
iets uitleggen, verklaren, uiteenzetten, toelichten, ophelderen, verantwoorden.
En dan is het interessant om onderscheid te maken tussen het verklaren in de natuurwetenschappen en het begrijpen in de geesteswetenschappen. In het Duits: erklären versus verstehen.
In de natuurwetenschappen wordt gezocht naar causale verklaringen; in de geesteswetenschappen naar teleologische verklaringen: de doelen, de motieven en intenties die aan gedrag ten grondslag liggen.
In dat opzicht is ‘verklaarbare ai’ een nogal inperkende vertaling van ‘explainable ai’.
De volgende dubbelzinnigheid zit in de vraag wie de conclusies van AI uitlegt: is het de bedrijfsmedewerker die de werking en conclusies van het model begrijpt en uitlegt of kan het kunstmatig intelligente programma dit zelf (aan de hand van ditzelfde model).
En moeten we het model begrijpen als een verzameling algoritmen of als met data trainbare neurale netwerken.
In beide gevallen zal een programma echter geen uitleg kunnen geven van (het waarom van) de eindresultaten en de vragen die gesteld worden om tot deze eindresultaten te komen. De reden is dat “kennis” nog steeds in een procedurele vorm wordt vastgelegd en niet in een declaratieve vorm.
Plat gezegd: het programma heeft geen toegang tot de ‘code’ waarmee het tot zijn conclusies is gekomen.
Conclusie: Verklaarbare AI gaat niet werken; Explainable AI aantoonbaar wel (als er overgeschakeld wordt van een datagedreven naar een doelgedreven aanpak).
Na alle boeiende reacties (er is in Nederland blijkbaar veel expertise ten aanzien van dit onderwerp) toch nog even aan de redactie de vraag hoe ‘verklaarbare ai’ in de oorspronkelijke tekst werd genoemd. Ik neem aan dat de heer Pope zijn artikel niet in het Nederlands heeft aangeleverd.
En het verzoek om dit bij toekomstige artikelen ook altijd te doen.
Naast Explainable AI is Declarative AI tenslotte ook een goede kanshebber.
Wat voor intelligent antwoord zou dan verwacht worden van die AI?
Misschien iets als
“Nou, ik selecteerde wat twijfelachtige data, presenteerde dat als feiten, filterde op politieke correctheid en doelgroep, en haalde daaruit uiteindelijk de conclusie die overeenkomt met wat ik bij voorbaat al wilde vertellen en/of jullie willen horen, zonder dat ik verantwoordelijk gesteld kan worden”.