Artificial intelligence (ai) moet doen wat het moet doen en geen ongewenste effecten hebben. Voor die uitdaging staat het in mei opgerichte Europese Focus Group Artificial Intelligence. Een nog te ontwikkelen roadmap moet hieraan richting geven. Daarin een actieplan om maatregelen te implementeren en in de toekomst te komen tot Europese standaarden ten aanzien van ai.
De Focus Group is een Europese studiegroep bij CEN, het Europese normalisatie-instituut. In opdracht van de Europese commissie brengen de leden in kaart welke standaarden specifiek voor Europa nodig zijn om ai-toepassingen veilig, betrouwbaar en binnen ethische kaders te laten werken. De groep is van mening dat dergelijke standaarden kunnen helpen bij het maken van de juiste afwegingen in het ontwikkelproces en bij het toetsen en aantonen van de betrouwbaarheid van ai-toepassingen. Bovendien laten partijen die op het ai-terrein actief zijn, hiermee zien welke maatregelen zij nemen om transparantie te vergroten en bijvoorbeeld risico’s en bias (cultureel bepaalde vooringenomenheid) te verkleinen.
Niet onbelangrijk: door voor alles de betrouwbaarheid van ai te vergroten, neemt de adoptiewaarde ervan toe en helpt dit de innovatie van ai te versnellen, aldus de Europese Unie.
Ethische richtlijnen
Belangrijke input voor de standaarden vormen de ethische richtlijnen opgesteld door de High-Level Expert Group on Artificial Intelligence (AI HLEG). Dit verband is in juni 2018 door de Europese Commissie opgericht en bestaat uit onderzoekers, ondernemers en vertegenwoordigers van maatschappelijke organisaties.
Daarnaast nodigt de Focus Group de lidstaten uit om input te leveren. Voor Nederland kan dat via de NEN-normcommissie Artificial Intelligence & Big Data, dat weer lid is van de Focus Group. Partijen die willen weten hoe de standaardisatie van ai (maar ook big data) zich in Europa ontwikkelt en hierop invloed willen uitoefenen, kunnen meepraten via deze commissie.