Het zakelijk gebruik van kunstmatige intelligentie (ai) is sterk in opkomst. De technologie presteert voor bepaalde taken al beter dan de mens. Zie de diagnose van ziekten of het rapporteren van nieuws. Daarmee zijn de ethische risico’s die aan het gebruik van dit soort slimme autonome systemen nog niet opgelost.
De laatste jaren zijn er diverse technologische doorbraken geweest die te danken zijn aan kunstmatige intelligentie en machine learning. Zo slaagde het computerprogramma AlphaGo er bijvoorbeeld in om de beste menselijke speler van dit strategische bordspel te verslaan en zien we elektrische auto’s in het straatbeeld verschijnen die grotendeels autonoom kunnen rijden. Tegelijk maakt deze technologie het mogelijk de menselijke spraak nagenoeg perfect te imiteren en met zogeheten ‘deep fakes’ kunnen video’s van mensen zelfs bijna onherkenbaar vervalst worden. Hieruit blijkt al dat de technologie zowel voor ethische als onethische zaken zijn aan te wenden. In die zin is ai niet anders dan een hamer: je kunt er een spijker mee inslaan, maar ook een schedel.
Het gevaar bij ai zit echter in de autonomie van de toepassing. Een algoritme heeft van zichzelf geen ethisch kader. Het zoekt enkel naar de beste of meest efficiënte oplossing voor een probleem. En dat kan tot ethisch onverantwoorde beslissingen leiden, waar de mens uiteindelijk de dupe van is.
Duivels dilemma
Een van de meest sprekende voorbeelden van een ethische probleem met ai is de zelfrijdende auto. In de meeste landen is het nog verplicht om zelf de handen aan het stuur te houden, zelfs als de zelfrijdende functionaliteit actief is. Je draagt dus zelf de verantwoordelijkheid voor mogelijke ongevallen. Maar naarmate de technologie slimmer en betrouwbaarder wordt, zal dit ongetwijfeld veranderen. De vraag is wie is er dan verantwoordelijk is bij een ongeval. De computer? De leverancier van het systeem? En hoe zien verzekeraars dit?
Stel je voor dat een zelfrijdende auto in een situatie terechtkomt waarbij hij moet uitwijken voor voetganger of een ander obstakel. In een splitseconde moet dan beslist worden wiens leven de meeste prioriteit heeft: die van de bestuurder, een of meerdere voetgangers, of misschien wel een oudere persoon versus een kind?
Dit is een interessant gedachte-experiment, waar we nog geen heldere oplossing voor hebben. Het is pas het topje van de ijsberg voor wat ons te wachten staat op het gebied van toekomstige ethische ai-problematiek in het bedrijfsleven.
Moreel kader
In de praktijk zien we dat steeds meer organisaties investeren in technologie om praktische toepassingen van ai in hun bedrijfsvoering te integreren. De effectiviteit van deze systemen wordt echter niet alleen bepaald door de technologie, maar voor een groot deel door de beschikbare data en kennis binnen de organisatie. De betrouwbaarheid en zuiverheid van de gegevens zijn hierbij van groot belang, maar ook de manier waarop de algoritmes tot stand komen en beheerd worden. En hier komt ook het ethische dilemma om de hoek kijken.
Laat je een algoritme vrij om te bepalen hoe een organisatie het beste geld kan besparen? Dan kan het immorele maatregelen voorstellen, waar mensen, partners en klanten de dupe van zijn. Om dit te voorkomen, heeft een ai een ethisch kader nodig waarbinnen het opereert. Daarnaast moet de mens altijd de controle houden over beslissingen waarbij twijfel bestaat over de ethische en morele consequenties. Een ai-systeem mag nooit een zwarte doos worden, die beslissingen neemt die wij als mensen niet bevatten of beheersen.
Internationale ai-wedloop
De techgiganten zijn hard aan het werk om als eerste de volgende grote doorbraak in ai te realiseren. Een partij als Facebook ziet alleen maar voordelen en lijkt blind voor de risico’s, maar heeft de schijn tegen door de herhaaldelijke datalekken en overtredingen op het gebied van privacybescherming. Daar tegenover staat een organisatie als OpenAI, dat zich specifiek richt op het creëren van een pad naar een veilige vorm van algemene kunstmatige intelligentie. Laten we hopen dat deze tegengestelde houdingen ertoe leiden dat er uiteindelijk een standaard komt die het gebruik van ai wettelijk en juridisch aan banden legt. Dit zou garanderen dat ai altijd op een veilige en ethische verantwoorde manier wordt toegepast. Althans, in het bedrijfsleven.
Want onder internationale grootmachten is ook een wapenwedloop gaande rond ai. Met deelnemende landen als de VS, China en Rusland, is het aannemelijk dat we op dit internationale niveau nog veel vuurwerk kunnen verwachten. Laten we hopen dat deze landen zich ook aan algemeen geldende ethische standaarden conformeren en zich niet laten verleiden tot doemscenario’s uit films als The Terminator of The Matrix.
Auteur: Jürgen Angele, head of Competence Center Ai bij Adesso