De Duitse bedrijfssoftwaregigant SAP roept een externe ethische raad in het leven die het bedrijf adviseert over ai-toepassingen. Zij gaat in gesprek met een interne ai-raad en toetst of ai-ontwikkelingen voldoen aan de zeven richtlijnen die het bedrijf heeft opgesteld rondom zijn visie op ai-ontwikkelingen. Daarmee speelt het bedrijf naar eigen zeggen een Europese voortrekkersrol door ethiek en ai te verankeren in de bedrijfsvoering.
Killerrobots, massale data-surveillance, profilering en privacy-schendingen… het publieke debat over de inzet van artificial intelligence gaat al lang niet meer alleen over de positieve bijdragen die ai-toepassingen leveren aan de maatschappij. Ook zakelijke klanten hebben volgens de Duitse onderneming steeds vaker vragen over de inzet van ai.
SAP richt nu een panel op dat de toepassing van ai toetst op ethische gronden. Het is naar eigen zeggen het eerste Europese bedrijf dat zo’n raad heeft benoemd. De groep bestaat uit academici, bestuurders uit het bedrijfsleven (zie kader) en op de wenslijst staan kennelijk ook politici. Later worden nog nieuwe leden toegevoegd. De raad ziet erop toe dat SAP’s huidige en nieuw te ontwikkelen ai-toepassingen voldoen aan eigen ethische richtlijnen. De ethische raad werkt samen met een intern SAP ai-comité dat bestaat uit SAP-bestuurders binnen development, strategie en hr.
Door de externe en interne raad en de richtlijn moet gewaarborgd zijn dat ai- en machine learning, toepassingen die op basis van het SAP Leonardo-platform ontwikkeld worden, voldoen aan ethische standaarden. Kortom, het publiek moet het vertrouwen krijgen dat de leverancier goede intenties heeft met haar ai-toepassingen. Hoe klanten vervolgens met die toepassingen omgaan, daar heeft de leverancier overigens geen invloed op. Maar, dat terzijde. In de definitie van ai-toepassingen die SAP hanteert gaat het om de ontwikkeling van toepassingen rondom: machine learning, blockchain, data intelligence, big data, Internet of Things, analytics en orchestration automation, die met elkaar verweven zijn.
Richtlijnen
In de zeven ‘SAP’s Guiding Principles for Artificial Intelligence’, is aandacht voor mensenrechten, bias (meerdere factoren die een objectieve interpretatie in de weg staan), transparantie over gebruikte algoritmen en hoe deze tot een eindoordeel komen, data-protectie, privacy, en de maatschappelijke impact van ai.
Tijdens het gecombineerde leveranciers- en eindgebruikers event van SAP en VNSG, Connect to Innovate, dat 2 oktober 2018 plaatsvond in Nieuwegein lichtte Marc Teerlink, binnen SAP wereldwijd verantwoordelijk voor SAP Leonardo, de stappen rondom ethiek en ai verder toe.
Hij stelde dat de ethische beslissingen rondom machine learning altijd door mensen getoetst moeten worden. ‘Hoe moeten machines ethiek beoordelen als mensen er al geen eenduidig oordeel over kunnen vellen.’
Kritiek
Tijdens de bijeenkomst was de kritiek van aanwezige journalisten dat de ethische raad en de verhoogde aandacht voor ethiek en ai, door SAP worden gebruikt als marketing-instrument. Maar volgens Teerlink gaat het om stappen die aansluiten bij de kernwaarden van SAP.
Wie goed kijkt naar de samenstelling van de ethische raad, valt verder op dat er tot nu toe geen consumentenorganisaties of privacy-belangenbehartigers betrokken zijn. Het bedrijf belooft later nog nieuwe namen bekend te maken, mogelijk dat niet te benoemen leden ook in die hoek worden gezocht.
Verder blijkt dat er bewust voor gekozen is om de raad die ai-toepassingen ethisch toetst vooral te laten bestaan uit mensen die zich op maatschappelijk en zakelijk vlak met technologie bezighouden. Daarbij is het dus wel de vraag of die leden een afweging kunnen maken over technische vaak zeer complexe ai-toepassingen.
Leden ethische advies-raad AI
- Dr. Peter Dabrock, Hoofd Systematic Theology (Ethics), Universiteit van Erlangen-Nuernberg
- Dr. Henning Kagermann, Voorzitter Duitse Academie van Wetenschap en Technologie (acatech)
- Susan Liautaud, Lecturer Public Policy & Law, Stanford. Oprichter en managing director, Susan Liautaud & Associates Limited (SLAL)
- Dr. Helen Nissenbaum, Professor, Cornell Tech Information Science
- Nicholas Wright, onderzoeker verbonden aan Institute of Cognitive Neuroscience, University College Londen