Sommige digitale trends gaan niet over het inzetten van digitale technologie, maar over de gevolgen ervan. Een van de meest prominente is artificiële intelligentie (ai). De vraag is: hoe gaan we daar verantwoord en ethisch mee om?
Ai heeft het potentieel om zowel voor goede als voor slechte doeleinden te worden gebruikt. Het kan organisaties helpen efficiënter te werken, schonere producten te produceren, schadelijke milieueffecten te verminderen en de menselijke gezondheid te verbeteren. Maar wanneer ai op onethische manieren wordt gebruikt – bijvoorbeeld voor desinformatie, misleiding, misbruik van mensen of politieke onderdrukking – kan dit ernstige schadelijke gevolgen hebben voor individuen, het milieu en de samenleving, en dus voor het ethisch gebruik van ai.
Ai als een technologie om menselijke intelligentie te repliceren, te vergroten of te vervangen, is niet nieuw, maar heeft in het afgelopen decennium een snelle ontwikkeling doorgemaakt. Het is een integrerend deel geworden van producten en diensten, aangezien het ons op allerlei gebieden enorm kan helpen. De ontwikkeling van Covid-19-vaccins ging mede zo snel dankzij ai. Voorbeelden van praktische toepassingen zijn de rijtechnologie in auto’s of de zogeheten ‘aanbevelingen’ op het moment dat je een webwinkel bezoekt, of een soortgelijke toepassing binnen Google Search die zegt: ‘Als je dit artikel interessant vindt, is het volgende artikel misschien ook nuttig’. Maar er liggen ook negatieve gevolgen op de loer, en die kunnen de positieve gemakkelijk overschaduwen.
Daarom beginnen organisaties met het ontwikkelen van ai-ethische codes.
- Als we ai niet vanaf het begin vanuit een verantwoordelijk en ethisch oogpunt benaderen, zal dat de ontwikkeling in de komende tijd afremmen;
- Mensen kunnen ai niet bevatten en moeten beschermd worden tegen de risico’s van ai;
- Makers en gebruikers van ai-toepassingen hebben de plicht om proactief een verantwoordelijke en ethische aanpak te hanteren, omdat dit moreel noodzakelijk is voor een disruptieve technologie als ai in termen van de potentiële maatschappelijke impact;
- Organisaties kunnen een sturende rol op zich nemen in de discussies die rondom ai gevoerd gaan worden en zich op een positieve en verantwoorde manier positioneren. Zo kun je bijdragen aan een positief, niet-bedreigend beeld van ai.
Gegevens verzamelen
Gedurende het gehele klanttraject verzamelt een organisatie continu klantgegevens, omdat hierdoor een steeds completer en beter beeld ontstaat van een individuele klant. Uiteindelijk is er genoeg data om een individuele klant persoonlijk te benaderen en aan te zetten tot een specifieke actie tijdens de klantreis (customer journey). Ai kan op vele momenten in dit hele proces worden ingezet en is steeds meer een volledig geïntegreerd onderdeel van het hele ‘systeem’ geworden. Het is geautomatiseerd en vaak niet zichtbaar, of niet als zodanig herkenbaar.
Dit onzichtbare aspect raakt de kern van de ethisch verantwoorde ai-vraag: is dit een goede of slechte zaak? Is het aanvaardbaar om technologie te gebruiken die niet altijd wordt herkend en die slimmer kan ‘schakelen’ dan een mens? Wanneer dit gecombineerd wordt met de intentie om ‘gedrag te willen beïnvloeden’, komt er automatisch een gevoelig element bij.
Verantwoorde ai
Verantwoordelijke ai vatten we op in de zin van ai verantwoord gebruiken en dat heeft verschillende dimensies, zoals:
- Waar pas je ai toe – in relatie tot menselijke toepassing?
- Hoe pas je ai toe? Hoe betrouwbaar is het resultaat? En kan het de menselijke interpretatie overnemen?
- Weten alle stakeholders dat je ai toepast? Welke ai pas je toe? En op welke data pas je het toe?
- Hoe kan een verantwoorde toepassing van ai je helpen vertrouwen te winnen? Want vertrouwen is een essentieel element als het over ethiek gaat.
Weinig klanten realiseren zich waarschijnlijk hoeveel gegevens ze tijdens een customer journey aan een organisatie verstrekken, hoeveel klantgegevens er ‘gekocht’ kunnen worden, en hoe datapunten van verschillende klanten worden gebruikt om zijn of haar gegevens aan te vullen om een compleet klantbeeld te creëren. Dit beeld kan vervolgens via ai verder worden gespecificeerd dankzij meer data en transacties.
Verantwoordelijkheid
Welke verantwoordelijkheid heb je nu als organisatie naar je klanten? Hoe open en transparant moet je zijn? Welke taken heb je? En is het groeperen van mensen op basis van ai (algoritmes) moreel te verantwoorden? En als dit verantwoord zou zijn ten aanzien van het algoritme, dan blijft de vraag hoe de uitkomst gebruikt gaat worden. Want, zoals zo vaak, is de ‘kwade genius’ niet de technologie – het algoritme – maar degene die het gebruikt en controleert.
Het lijkt meer dan ooit tevoren relevant om als organisatie ethische toepassing van ai op de agenda te zetten. Door een belofte te doen om verantwoord met ai om te gaan, toon je (maatschappelijke) verantwoordelijkheid, maar geef je ook expliciet en impliciet aan dat ai van waarde is voor je organisatie om je doelen te bereiken.
(Auteur Jack Klaassen is director innovation and technology bij Macaw.)
“Weinig klanten realiseren zich waarschijnlijk hoeveel gegevens ze tijdens een customer journey aan een organisatie verstrekken, hoeveel klantgegevens er ‘gekocht’ kunnen worden en hoe de datapunten van verschillende klanten worden gebruikt om zijn of haar gegevens aan te vullen om een compleet klantbeeld te creëren.”
Het profileren van de opportunity in een sell om maar even in de Anglo-Amerikaanse buzz bingo te blijven is een vorm van AI welke voor maatschappelijke weerstand zorgt. Wat betreft herkenbaarheid onderschat de auteur de intelligentie van de mens als we kijken naar de bedot.com economie, de praktijk is weerbarstiger dan de theorie als we kijken naar de uitkomsten. De mens is buigzamer dan de modellen als we kijken naar zoiets als vertrouwen, die andere Jack zou het filosofisch over de onderbuik (moeten) hebben.
Houd het moreel van de manschappen hoog, zorg dat ze op tijd te eten hebben. Dino’s weekend is verpest met de A4’s van Heidegger maar ik ben altijd hongerig en dorstig maar dat is een andere discussie. Controle op het algoritme – zeg maar de rekenmachine – is niet interessant want het gaat om de data en de kwaliteit hiervan. Fuck Heidegger en lang leve Victor Hugo want musical was beter dan het boek welke om het: ’Eens een boef, altijd een boef’ moreel ging welke maatschappelijk tot een revolutie leidde.
Achterkamerpolitiek, niet-bindend referendum, functie elders, https://nl.wikipedia.org/wiki/Rutte-doctrine, vage vergoedingen europees parlemetariers, inactieve herinnering, polderen.
maar AI moet ethisch verantwoord zijn 😛
Moderne datasynthese kent zoiets als een geheugen waarin een reconstructie van persoonlijke beleidsopvattingen van ambtenaren om onderzoeksjournalistiek gaat. Hedendaagse opiniërende journalistiek is de tassendrager geworden van de politiek als het om het cliëntelisme van het polderen gaat want de persoonlijke beleidsopvattingen van ambtenaren blijken ingefluisterd te worden door lobbyisten. Nu heeft Dino niks met filosofie en daarom ook niet met de moraalfilosofie waar het gebruik van AI aangaande het menselijke handelen vooral om de beïnvloeding van bijvoorbeeld het koop- en stemgedrag gaat.
Wat betreft AI en het bonnetje valt een kale kip niet te plukken, het profileren van klanten via het betalingsverkeer is een prachtige manier om het volk eronder te houden. Aangaande simpele ethische vragen over het doel en de (heilige) middelen kent moderne datasynthese voordelen als het gaat om het zoeken naar niet wenselijke gedragingen zoals fraude. Wat misging bij de toeslagen was de afweging van de intentie want misschien dat niet iedereen zich probeerde te verrijken maar in de omgekeerde bewijslast was dat moeilijk te bewijzen.