Verantwoordelijkheid is de basis van een goed functionerende samenleving. Het was de afgelopen twee jaar wat dat betreft niet altijd makkelijk maar uiteindelijk pakten we als samenleving onze verantwoordelijkheid door mondmaskers te dragen, op veilige afstand van elkaar te blijven, waar mogelijk thuis te werken en lieten we ons vaccineren toen er vaccins beschikbaar kwamen.
Een gedeeld verantwoordelijkheidsgevoel heeft ons door een lastige tijd geholpen. Het is dan ook passend om de technologieën die we dagelijks gebruiken, door de lens van verantwoordelijkheid te bekijken.
De term ‘responsible ai’, ofwel verantwoordelijke ai, verwijst naar de praktijk van het ontwerpen en implementeren van systemen om de maatschappelijke impact van ai te vergroten en de nadelige en negatieve uitkomsten te minimaliseren. Responsible ai is van cruciaal belang om vertrouwen op te bouwen in wat snel een instrument voor alledaags gebruik aan het worden is. Problemen met data-vooringenomenheid en negatieve uitkomsten moeten dus op de juiste manier worden aangepakt. En hoe sneller hoe beter, want wanneer je te laat bent, is veranderen lastig en vrijwel onbetaalbaar. Voor responsible ai bestaat nog geen geformaliseerd handboek. In plaats daarvan hebben verschillende bedrijven hun eigen whitepapers gepubliceerd over wat het voor hen inhoudt. Gezien deze enigszins informele status, is het onvermijdelijk dat er mythes zijn ontstaan rond responsable ai.
Dit zijn vijf mythes die ik vaak tegenkom,
Gedragscode
- Responsible ai gaat over ethiek
De realiteit is pragmatischer dan het formuleren van een morele gedragscode alleen, aangezien veel negatieve resultaten bij ai kunnen voortkomen uit de beste bedoelingen. Responsible ai moet zowel gaan over intentie als verantwoording. In de testfase moeten geïmplementeerde modellen zich gedragen zoals ze zijn ontworpen. Hoewel dit een voor de hand liggende eis lijkt voor elke systeemtest, betekent dit dat er ook goed gekeken moet worden naar de gegevens die voor de test worden gebruikt, niet alleen naar het gedrag van de algoritmen.
De gegevens moeten afkomstig zijn van erkende en onbevooroordeelde bronnen, en bij het testen moeten meerdere partijen uit verschillende disciplines worden betrokken. Elk van deze partijen, ook degenen die geen rol hebben gespeeld bij de totstandkoming van het systeem, moet in staat zijn de resultaten te begrijpen. Het proces moet ook een transparant overzicht van de verzameling en het gebruik van gegevens omvatten, met name op dat wat het algemene resultaat betreft en in de praktijk gevolgen kan hebben voor iemand die bijvoorbeeld een lening of verzekering aanvraagt.
- Responsible ai is te leveren door alleen al de juiste instrumenten
Tools kunnen een deel van de weg zijn naar het leveren van responsible ai. Maar zelfs mlops – dat voor machine learning lifecycle management doet wat devops doet voor meer conventionele codering – vereist dat teams samenwerken en een nieuwe cultuur opbouwen, met nieuwe governance-normen en nieuwe workflows. Deze gewijzigde processen zullen worden ontworpen om tegemoet te komen aan verschillende risiconiveaus die samenhangen met factoren zoals eindgebruikers, mogelijke uitkomsten en zakelijke impact. Tools kunnen alleen helpen bij deze benaderingen als de benaderingen zelf zijn ontworpen.
- Onbekwaamheid en kwaadwilligheid zijn enige oorzaken van problemen
Enkele van de grootste technologiebedrijven ter wereld hebben te lijden gehad van publieke schandalen als gevolg van de verkeerde toepassing van ai-principes, en post-mortems toonden geen bewijs van sabotage of ernstige fouten in het ontwerp. In plaats daarvan leidde een gebrek aan intentie en verantwoordelijkheid tijdens de levenscyclus van het project tot onvoorziene gevolgen. Achter veel van de nieuwskoppen gaan eenvoudige gevallen van vertekende of niet-representatieve gegevens schuil. En als het de grote spelers kan overkomen, kan het iedereen overkomen.
- Ai-verordening zal geen gevolgen hebben
Bedrijven moeten al voldoen aan de Europese General Data Protection Regulation (GDPR) uit 2016, die veel van de elementen van responsible ai raakt. En hoe groter en invloedrijker ai wordt, des te meer regelgeving er in leven geblazen wordt om burgers en bedrijven te beschermen. Om van ai te kunnen profiteren, moeten organisaties hun eigen transformatieproces in evenwicht brengen met opkomende normen, aangezien het vrijwel zeker is dat overheden deze binnenkort zullen formaliseren.
- Responsable ai is klus voor de technologen
Gezien de omvang van de adoptie van AI, zal dit idee binnenkort onpraktisch zijn. Voor veel gebruikers is dat misschien nu al zo. Domeinexperts zijn nodig om het onderliggende bedrijfsprobleem en de aard van de gegevens te begrijpen. Data scientists en ander technisch personeel begrijpen de tools en de oplossingen die zijn gebouwd. En besluitvormers begrijpen de bredere bedrijfsdoelstellingen en kunnen oordelen vellen over regelgevingskwesties en andere zaken. Hoewel niemand onmisbaar is, begrijpt niemand alle aspecten van een AI-project.
Doel en middelen
Bij de implementatie van responsible AI moeten we risico’s inschatten en vertrouwen opbouwen. Iedereen in het bedrijf moet een rol spelen in de cultuurverandering die gaat volgen. Infrastructuur, software, mensen en meer moeten zich verenigen in een naadloze hybride die alle invalshoeken ziet en waarde toevoegt binnen en buiten de organisatie.
De moraalwetenschap is een simpele afweging van wat goed en slecht is op basis van een filosofisch referentiekader welke – o tempora, o mores – grotendeels bepaald is door een historisch gevoel van rechtvaardigheid. En dat is iets anders dan het rechtmatig oordelen op basis van in code vastgelegde regels want Jurriaan struikelt al in zijn eerste alinea want voordat bepaalde maatregelen rechtmatig in de aanpak van een pandemie werden moesten er andere rechten buiten werking gesteld werden. Verder wordt wat betreft zijn en tijd de leugen nog weleens achterhaald door een voortschrijdende ontwikkeling in kennis, veel maatregelen blijken nu toch buiten proportioneel te zijn wat tot een groeiend wantrouwen in de overheid leidt.
Repelsteeltje schreef 10 jaar geleden dat als de bron gemanipuleerd is doordat de data vervuild of gemasseerd is je wenselijke uitkomsten krijgt maar niet altijd waarheden. Een constatering die empirisch in de reacties bewezen werd omdat filosofie en IT haaks tegenover elkaar staan waardoor de moraal stuk geknutseld wordt door de DevOps brigades van Big Tech. Wat betreft doel en middelen mis ik dan ook het stukje reflectie doordat de koopman alleen maar wijst op de waarde waardoor een bedotcom maatschappij de waarheid uit het oog verliest doordat de industrie van sjoemelsoftware ons gouden bergen beloofd. En wat betreft metaforisch je ziel aan de duivel verkopen hebben we gelukkig het pragmatische katholieke geloof waar alles mag zolang je na afloop maar de boete aan de kerk betaald, greed is go(o)d.
Oja, quid pro quo hebben we in de gezondheidscrisis geleerd dat de GDPR makkelijk te omzeilen is door een technisch maar onlosmakelijke equivalent als persoonlijke ID te gebruiken. Mea culpa koos ik ook voor het groene vinkje van een QR-code in ruil voor een vrijheid die me ontnomen was maar ik was een wolf in schaapskleren. Want wat betreft de AI van het ministerie van Waarheid welke ons maanden in de duisternis van de angst gevangen heeft gehouden heeft Eduard Douwes Dekker een punt over de panem et circenses van modellen, de realiteit is pragmatischer dan de theorie doordat deze zich aanpast aan de omstandigheden. Wat betreft de wedloop van het trainen van modellen en het aanpassen de regels valt er misschien iets te zeggen over het maatschappelijke rendement van AI.