Kunstmatige intelligentie (ai) is steeds beter in staat om zelfstandig te leren en daarmee autonoom te opereren. In theorie kan een ai-algoritme betere beslissingen dan een mens: eerlijk en objectief, vrij van vooroordelen en zonder etnisch te profileren. Maar dit vraagt wel om goede randvoorwaarden en ethische kaders, ook wel responsible ai genoemd.
Het gaat hierbij om verantwoorde en verantwoordelijke ai, of ai die wordt ingezet om het maatschappelijke belang te dienen. In de praktijk blijkt dat het realiseren van responsible ai complex is en zonder menselijke intelligentie niet lukt.
Want ai gaat niet vanzelf goed. Bijvoorbeeld als de data die het algoritme krijgt voorgeschoteld niet klopt of van onvoldoende kwaliteit is. Of als er fouten in het ai-algoritme zijn geslopen die mensen op voorhand verdacht maken of uitsluiten op basis van één of meer van hun kenmerken. Een ai-model kan onbedoeld een vertekening of ‘bias’ in de dataset versterken of nieuwe vooroordelen introduceren.
De maatschappelijke onrust, of zelfs het wantrouwen, over algoritmes maakt het lastig om Responsible ai in de praktijk toe te passen. Denk maar aan de het Systeem Risico Indicatie (SyRI) dat de overheid heeft gebruikt tegen de bestrijding van fraude op bijvoorbeeld het terrein van uitkeringen, toeslagen en belastingen. Of aan ‘Predictive Policing’ in Roermond en etnisch profileren bij Reclassering Nederland. Wantrouwen is er ook in de top van veel bedrijven over de bruikbaarheid van ai. Bovendien worden de resultaten van veel data scientists domweg genegeerd, zeggen ze zelf. Financiële instellingen liggen onder een vergrootglas en er zijn allerlei strenge regels om aan te voldoen. De problematiek rondom de inzet van ai-modellen is samen te vatten als: ‘Technisch kan het, juridisch mag het, maar wil je het ethisch ook?’ Banken worstelen bijvoorbeeld met het dilemma dat ze meer van hun klanten weten dan ze zouden willen.
Foutloze ai
Responsible ai begint met foutloze ai: data sets, algoritmes, datamodellen en toepassingen die zo zijn gemaakt dat ze inderdaad objectief en eerlijke beslissingen leveren. Dat is makkelijker gezegd dan gedaan en misschien wel onmogelijk. Het vakmanschap van de data-scientist maakt hier het verschil. Daarnaast zijn er veel technische hulpmiddelen en (statistische) methodieken voorhanden om te bepalen of een ai-algoritme goed en correct werkt, eerlijk is en niemand uitsluit. Zo is er tooling op het terrein van dataprivacy en -kwaliteit, biasdetectie, betrouwbaarheid en eerlijkheid van de genomen beslissingen en model bias monitoring. Deze tooling is out-of-the-box in te zetten om responsible ai binnen een organisatie praktisch uitvoerbaar te maken
De ethiek moet verweven zijn in het hele proces, ook wel de ‘analytics life cycle’ genoemd: van het verzamelen van de data, het bouwen van de modellen, het in gebruik nemen van een toepassing tot de perceptie van de klant. Ethische en morele waarden moeten niet alleen gebaseerd zijn op de overtuiging van een data-scientist en zich niet beperken tot ai. Alle analytics-toepassingen moeten worden meegenomen.
Divers data-team
Voor het verzekeren van een ‘responsible’ toepassing van ai in een organisatie is het samenstellen van een divers team aan data-scientists van groot belang. Mensen zijn nu eenmaal geneigd om minderheidsgroepen waar we zelf niet toe behoren over het hoofd te zien.
Enkele jaren geleden was er een tendens dat geslacht of etniciteit niet meer gebruikt werd in ai-modellen. Inmiddels weten we dat er veel impliciete verwijzingen naar iemands geslacht of etniciteit bestaan. Dit resulteert in ‘proxy-discriminatie’. Zelfs als bepaalde kenmerken niet worden meegenomen door het model, kan het toch zijn dat het algoritme op basis van andere kenmerken, bijvoorbeeld een postcode in een achterstandswijk, toch een discriminerende beslissing neemt. Deze proxy-discriminatie is tienmaal gevaarlijker, omdat het niet transparant is en er nieuwe bias in het model wordt gebracht.
In een recent artikel is beschreven dat een zorginstelling met een ai-algoritme dat keek naar röntgenbeelden, objectief wilde vaststellen welke zorg iemand in het vervolgtraject nodig zou kunnen hebben. Je zou denken dat de röntgenbeelden objectieve beslissingen genereren. De ai-modellen leerden op basis van de beelden van welk geslacht de patiënten waren en tot welk ras ze behoorden. Het is verontrustend dat wanneer je denkt dat je objectieve data gebruikt, dit toch kan leiden tot discriminatie.
Data-scientists mogen er niet vanuit gaan dat een ai-model dat vandaag goed werkt over een jaar of zelfs morgen nog steeds goed werkt. Die modellen en de uitkomsten moeten continu gemonitord worden om te zien of ze voldoen aan de criteria voor responsible ai. Dus of de beslissingen eerlijk en betrouwbaar zijn, er geen bias optreedt, het model transparant is en nog steeds goed uit te leggen valt. Ook de uiteindelijke beslissingen die een ai-model maakt, moeten blijvend gecontroleerd en beoordeeld worden. We kunnen die beslissingen niet blind aan ai-systemen overlaten. Artificiële Intelligentie kan niet zonder menselijke intelligentie. Als het systeem perfect in elkaar zit, neemt het de beste beslissing. Beter dan een mens het kan, want een mens is niet objectief en niet onbevooroordeeld. Door een ai-algoritme te gebruiken wordt het beslissingsproces transparanter. Maar de mens moet blijven meekijken.
(Auteurs Rein Mertens en Véronique Van Vlasselaer zijn respectievelijk head of customer advisory en data & decision scientist bij SAS.)