In het geval van falen, een ongeluk of schade door een robot, kan de programmeur van de software die de robot aanstuurt, aansprakelijk worden gesteld. Dat zei rapporteur Mady Delvaux tijdens een seminar over robotica in Brussel. Ze deed die uitspraak namens een speciaal comité voor wet- en regelgeving dat de Europese Commissie adviseert over allerlei juridische en maatschappelijke zaken rondom robotisering en kunstmatige intelligentie.
Delvaux lichtte dinsdag 7 februari 2017 samen met vier mederapporteurs de inhoud van een voorlopig adviesrapport toe tijdens het Brusselse roboticaseminar. Doel is om tot wet- en regelgeving op het gebied van robotisering en kunstmatige intelligentie te komen.
In de recente discussie over aansprakelijkheid bij bijvoorbeeld ongelukken met zelfsturende auto’s is het volgens de groep van belang om duidelijkheid te verschaffen. Daarin nemen de adviseurs duidelijk het standpunt in dat mensen altijd juridisch verantwoordelijk blijven voor het handelen van robots.
Hoe die aansprakelijkheid van programmeurs eruit zal zien, is nog niet uitgewerkt. Het is bijvoorbeeld maar de vraag of juridische instanties de broncode van producten mogen inzien om te kijken of hier fouten in zijn gemaakt. Volgens de huidige regels vallen broncode en objectcode namelijk onder het auteursrecht.
Privacy en security by design
Verder braken de parlementariërs een lans voor privacy by design en security by design, waarbij ontwikkelaars bij de infrastructuur, algoritmes en technologie van robots rekening houden met beveiliging en privacy.
Het adviesrapport wordt 16 februari 2017 voorgelegd aan de Europese Commissie. Die heeft vervolgens drie maanden de tijd om de inhoud te bestuderen en aan te geven welke aanbevelingen worden gevolgd en omgezet in wet- en regelgeving.
Bedankt voor de reacties.
@ Robert
Er staat in het rapport niet dat programmeurs verantwoordelijk zijn. Dat klopt.
Het gaat hier om een reactie van Delvaux in een discussie over aansprakelijkheid tijdens het seminar. Zij zei daarin expliciet dat ze vindt dat de programmeur verantwoordelijk is.
Dat vind ik een opvallende uitspraak van deze rapporteur die de EC adviseert. Hoe de uitvoering van deze maatregel er vervolgens uitziet en of hier programmeur als persoon wordt bedoeld, lichtte Delvaux niet toe.
Ik vind het in de discussie over aansprakelijkheid zeker interessant om te vermelden, omdat ze hier niet kiest voor de optie om de fabrikant of gebruikers aansprakelijk te stellen. Ze zoekt het duidelijk bij de makers van de software.
Als haar doel van deze uitspraak is om een discussie op gang te brengen dan is dat in ieder geval zeker gelukt.
Lijkt mij dat de enige juiste weg is: het aansprakelijk stellen van de fabrikant net zoals nu bij alle andere producten ook gebeurd.
Hoe de fabrikant de aansprakelijkheid verhaald op zijn toeleveranciers of medewerkers is dan zijn probleem. Inderdaad is het apart dat hiervoor een uitzondering wordt gemaakt als het robots betreft en voor alle andere producten niet.
Volkswagen heeft een miljardenclaim gehad wegens sjoemelsoftware, Niet de programmeur die de software heeft gemaakt. Zou wel fijn geweest zijn voor volkswagen. Je wijst 1 medewerker aan die overal verantwoordelijk voor is en schuift alle claims naar die ene medewerker door. Of het nu over defecte remmen gaat, software of iets anders.
Die medewerker kan dat van zijn loon vervolgens dan niet kan betalen en gaat persoonlijk failliet.
@Pim: heb je daar een bron van? In het artikel is alleen een link te vinden naar het rapport en op de websites van het europees parlement kan ik nergens iets vinden over de mondelinge toelichting van Delvaux.
Het kan natuurlijk nooit zo zijn dat een programmeur verantwoordelijk is. Na het programmeren komt altijd nog een test. De gebruiker is samen met de ontwikkelaar verantwoordelijk voor het goed uitvoeren van de test. Daarna gaat de klant akkoord en kan dus de programmeur nooit verantwoordelijk zijn.
Als technisch ter zake kundig, sta ik er nog veel strakker in.
Programmeur en producent
Die moeten wettelijk volkomen aansprakelijk worden gesteld bij misere met domotica en robotica die volkomen zijn geautomatiseerd. De reden, betse lezweres, lezer, professional, is een andere dan u denkt.
IT materie 100% voorspelbaar
Eenvoudig, elke stap in en met IT, op alle niveaus, echelons en meest eenvoudige proces, is volkomen afhankelijk van voorafgestelde waarde. Als men professioneel niet juist met die waarden en input om gaat, niet goed gedegen test bijzoorbeeld, dan is men daar gewoon aanspreekbaar op als er schadelijke gevolgen zijn. Dat is nog niet zo heel erg doorgedrongen in de politiek, commercie of rechterlijke macht. Maar bij deze.
Beveiligen een verplichting
Er komen nogal wat berichten telkens weer naar voren die er gewoon op wijzen dat commerciele producenten en IT professionals het vaak niet zo nauw nemen met een volkomen normaal onderdeel van het hele proces genaamd…. Beveiligen. Een beetje raar als u wil bedenken dat beveiligen gewoon deel uit maakt van elke stap in en met IT.
Dus drones die plots beginnen te updaten, pc’s en tv’s die zomaar updaten, en daarna niet meer functioneren? In IT is dat feitelijk onbestaanbaar. Komt het steeds vaker voor? Jawel, en het gaat nog vaker gebeuren. U als klant, client en afnemer heeft een ijzersterk troef in handen.
IT, automatiseren, is 100% voorspelbare materie. Dus de onvolkomenheden die u benadelen? Jawel, die ook. Automatiseren…. een pracht vak en materie.
Heb net het rapport even gelezen. En zoals ik al dacht is de titel van het artikel veel te eenzijdig. Er staat duidelijk dat er 3 partijen aansprakelijk zijn: “manufacturers, owners or users could be held strictly liable for acts or omissions of a robot.”
Dat betekent dat de juridische aansprakelijkheid terug gebracht wordt tot een fout van de programmeur. Een productie fout (= Een bug) maakt producent aansprakelijk; verkeerde instructies / niet volgen van de instructies voor bediening van de robot maakt de eigenaar verantwoordelijk ; negeren van signalen van de robot maakt de gebruiker aansprakelijk.
De juridische aansprakelijkheid van AI komt dus op gelijke voet te staan met die van een producent van bijvoorbeeld een kettingzaag. 1.) de zaag kan een ongeluk veroorzaken door een ondeugdelijk onderdeel. 2) door verkeerde / ongeschoolde bediening of 3) door opzettelijk verkeerd gebruik. In deze gevallen is respectievelijk de producten, de eigenaar of de gebruiker aansprakelijk.
Toevallig afgelopen week een artikel hierover geschreven.
https://www.linkedin.com/pulse/who-responsibility-when-artificial-intelligence-amerongen
Een programmeur bouwt wat de ontwerper heeft beschreven, en wordt door de tester gecontroleert, dus wie van de drie ?
@Robbrecht: exact, zo had ik het ook gelezen in het rapport. Ik vind het zo vreemd dat notabene een mede-schrijver, rapporteur Mady Delvaux, het rapport dan zo vreemd en eenzijdig zou uitleggen. Vandaar dat ik wacht op de bron die Pim heeft gebruikt voor dit citaat.
Er worden in ziekenhuizen zat fouten gemaakt waarbij soms ook wel eens mensen het leven laten. Dat zal bij robots en AI apparatuur gemaakt door mensen niet anders zijn. Dan is het ook zaak om dit zo verantwoord mogelijk in te zetten en in de rest van de gevallen de mens zelf het werk laten doen ook al doen zij dat niet altijd 100% perfect.
@ Robert en Robrecht.
Zoals ik in het nieuwsbericht en mijn reactie omschrijf is de bron Mady Delvaux. Hoofd-rapporteur (geen mede-schrijver) van het advies aan de EC. Zij sprak tijdens een seminar voor journalisten uit verschillende Europese landen dat 7 en 8 februari plaatsvond in het Europees Parlement in Brussel. Ik was daar namens Computable aanwezig.
Op een vraag van één van de journalisten over aansprakelijkheid zei ze tot twee keer toe dat zij vindt dat de programmeur aansprakelijk is.
Ik vind het opvallend dat ze dit standpunt inneemt in de discussie over aansprakelijkheid. Die discussie wordt in het rapport namelijk veel breder gevoerd. Vandaar dat ik er een nieuwsbericht over heb geschreven.