In het geval van falen, een ongeluk of schade door een robot, kan de programmeur van de software die de robot aanstuurt, aansprakelijk worden gesteld. Dat zei rapporteur Mady Delvaux tijdens een seminar over robotica in Brussel. Ze deed die uitspraak namens een speciaal comité voor wet- en regelgeving dat de Europese Commissie adviseert over allerlei juridische en maatschappelijke zaken rondom robotisering en kunstmatige intelligentie.
Delvaux lichtte dinsdag 7 februari 2017 samen met vier mederapporteurs de inhoud van een voorlopig adviesrapport toe tijdens het Brusselse roboticaseminar. Doel is om tot wet- en regelgeving op het gebied van robotisering en kunstmatige intelligentie te komen.
In de recente discussie over aansprakelijkheid bij bijvoorbeeld ongelukken met zelfsturende auto’s is het volgens de groep van belang om duidelijkheid te verschaffen. Daarin nemen de adviseurs duidelijk het standpunt in dat mensen altijd juridisch verantwoordelijk blijven voor het handelen van robots.
Hoe die aansprakelijkheid van programmeurs eruit zal zien, is nog niet uitgewerkt. Het is bijvoorbeeld maar de vraag of juridische instanties de broncode van producten mogen inzien om te kijken of hier fouten in zijn gemaakt. Volgens de huidige regels vallen broncode en objectcode namelijk onder het auteursrecht.
Privacy en security by design
Verder braken de parlementariërs een lans voor privacy by design en security by design, waarbij ontwikkelaars bij de infrastructuur, algoritmes en technologie van robots rekening houden met beveiliging en privacy.
Het adviesrapport wordt 16 februari 2017 voorgelegd aan de Europese Commissie. Die heeft vervolgens drie maanden de tijd om de inhoud te bestuderen en aan te geven welke aanbevelingen worden gevolgd en omgezet in wet- en regelgeving.
@Pim:
Dank je voor de extra uitleg, dat plaatst wat dingen die nu onduidelijk zijn in context.
Hierboven staat dat rapporteur Mady Delvaux haar uitspraak over de aansprakelijkheid van de programmeur van de robotstuursoftware deed _namens_het_ comité_.
Naar ik verwacht gaat zij die woorden terug nemen. Ze zijn nl. *volledig* in strijd met letter en geest van het rapport.
Afgezien daarvan zijn bij het rapport nog wel een paar kanttekeningen te plaatsen.
Het rapport verstaat onder ‘robotics’ “manifestations of artificial intelligence”.
Dat loopt dus van industriële robots en Tesla’s Autopilot tot computersystemen.
En onder dat laatste kunnen we meteen militaire en medische systemen, en beursapplicaties rekenen, maar met de komst van blockchain ook Smart Contracts en ‘Digital Autonomous Organizations’ (DAO’s).
Onder de noemer ‘Robolaw’ lopen er al een aantal jaren discussies en onderzoeken naar ethiek, oplossingen en regulering. Onder meer naar aanleiding van ongelukken met Lethal Autonomous Weapons Systems (LAWS).
Maar door koersfluctuaties door beursapplicaties, ongelukken met Tesla’s autopilot, de komst van IoT en een simpele mega-hack bij Ethereum is het onderwerp fors uitgebreid en onder de aandacht van publiek en overheid gekomen.
Daarbij gaat het dus om het door logaritmes vervangen van menselijk ingrijpen bij het tot stand komen van een ‘beslissing’ en aansluitend handelen.
Waarbij opvallend is dat in het rapport t.a.v. AI geen aandacht wordt besteed aan het onderscheid tussen ‘kennis-systemen’ en ‘expert-systemen’. Bij KS is het beslissings-algoritme immers ingebakken in het systeem terwijl dat bij ES niet het geval is. Zie het maar als het verschil tussen een hiërarchische en een relationele database.
Het voorstel gaat met name over de wenselijkheid van “a series of rules, governing in particular liability and ethics” en “establishing basic ethical principles to be respected in the development, programming and use of robots and AI and in the incorporation of such principles into European regulations and codes of conduct”.
Het *huidige* systeem gaat uit van aansprakelijkheid voor handelen of nalaten van een robot indien dit kan worden teruggevoerd op producent, eigenaar of gebruiker van de robot.
Punt S-Z van de Introductie schetst de kern van het probleem : gezien vorm en aard van de ‘robot’ voldoet het huidige juridische systeem niet meer.
In het voorstel gaat men uit van de ‘instructeur’, niet de programmeur. Met daarnaast een risico-aansprakelijkheid in combinatie met een verplichte aansprakelijkheidsverzekering en een compensatiefonds.
Interessant is dan echter weer “Robotics engineers should remain accountable for the social, environmental and human health impacts that robotics may impose on present and future generations”. Smeltende ijskappen zijn er niets bij.
Al met al vind ik het een tamelijk innovatief rapport – volgens mij niet weinig geïnspireerd door de gerenommeerde SciFi-literatuur – met her en der ruimte voor verbetering. Maar dat laatste is ook de bedoeling.
Het zou goed zijn als minister Kamp voor zijn ‘Expertisecentrum Blockchain’ ook even contact zoekt met o.a. Tilburg Institute for Law, Technology, and Society (TILT), Rathenau Instituut en Privacy Autoriteit. De laatste vanwege de in het rapport genoemde privacy-aspecten en de directe link met Privacy by Design en Ethically Aligned Design (IEEE).