Als mensheid geven we graag een ander de schuld. Adam gaf Eva al de schuld dat zij de appel aan hem had gegeven en Eva gaf vervolgens de schuld aan de slang. We moeten iemand of iets de schuld geven. Dat kan zelfs een stad zijn (‘Het is de schuld van Den Haag!’), of zelfs een heel continent (Het is de schuld van Europa!).
Kinderen geven elkaar ook altijd de schuld. Van de week was de chocolademelk ineens op. ‘Ik heb ’t niet opgedronken’ zei mijn jongste dochter met de chocolademelk nog om haar mond en haar zusje die ernaast zat en net haar mond afveegde: ‘Ik ook niet’.
Wie is aansprakelijk?
Ik was van de week bij een event waar het gebruik van robots in het dagelijks leven centraal stond. Ook daar stond de vraag centraal ‘Wie geven we de schuld als er iets mis gaat?’. Wie is aansprakelijk voor een fout bij de robot? Degene die hem gemaakt heeft of degene die te lui was om de activiteit zelf uit te voeren?
Zelf neig ik heel sterk naar de eerste. Als er slechte koffie uit de automaat komt, is het toch ook niet de schuld van degene die het knopje heeft ingedrukt? Tenzij diegene het verkeerde knopje heeft ingedrukt. Sterker nog, als de fabrikant niet instaat voor de kwaliteit van zijn producten wil ik het product niet eens hebben. Maar er is natuurlijk geen fabrikant van zelfrijdende auto’s die verantwoordelijk wil zijn voor doden in het verkeer. Wij zelf gek genoeg wel. Misschien gaan we dankzij de zelfrijdende auto wel tot de conclusie komen dat autorijden eigenlijk veel te gevaarlijk is.
Vertrouwen
In de financiële sector doen ze dit veel makkelijker. Daar zetten ze er gewoon bij ‘resultaten uit het verleden zijn geen garantie voor de toekomst’. Daar worden producten dus vooral op basis van vertrouwen verkocht. Misschien is dat het wel. Misschien vertrouwen we robots nog te weinig. En de producenten daarvan ook.
Blijft natuurlijk de vraag over: Wie heeft nou de chocolademelk opgedronken? Ik denk dat het een radicale Moslim was. Dit laatste is natuurlijk een verspreking van mij.
Verantwoordelijkheid, aansprakelijkheid en schuld zijn drie verschillende begrippen. Ik ga geen definitiestrijd hierover aan, want dat is eigenlijk zinloos in deze leuke stelling.
Als ik een Ferrari koop en er zelf mee (bewust) tegen een muur rijdt is die Ferrari dan een slecht product? Als ik dat met een Suziki Swift doe? Iedereen zal zeggen “nee, want jij reed bewust tegen die muur”. Nu is bewust tegen een muur rijden overduidelijk een enkelzijde actie, waarvan ieder reeel denkend mens zal denken dat dit niet echt slim is. Bijna iedereen zal de verantwoordelijkheid, aansprakelijkheid en schuld bij de bestuurder neerleggen.
Oke, dat gezegd hebbende, stel dat een robot bewust met dezelfde auto (dus een zelfrijdende auto) dat zou doen? Hier zou iedereen zeggen dat de robot (of de fabrikant, maar daar mogen juristen over gaan discussiëren) de verantwoordelijkheid, aansprakelijkheid en schuld op zich neemt de robot (of fabrikant) is.
Maar goed, nu is bewust tegen een muur rijden heel duidelijk niet verstandig. Door alleen al deel te nemen aan verkeer, nemen we bewust (bekwaam en onbekwaam) een risico. Sterker nog we proberen dat risico te minimaliseren op voorhand en achteraf. Op voorhand door het voortuig uit te rusten met allerlei waarborgen (sensoren die horen of je op de juiste baan zit, te hard rijdt, etc….) en achteraf (airbags, kreukelzones, etc…. ) en financieel door ons te verzekeren. We zijn ons dus heel bewust van het feit dat deelname aan het verkeer een risico inhoudt.
Nu zijn er ook heel veel situaties waarin het niet zo vanzelfsprekend is wie nu eigenlijk de verantwoordelijk, aansprakelijk is of de schuld heeft. Dus er is een glijdende schaal van situaties waarin het heel duidelijk is aan de ene kant van die schaal en compleet onduidelijk aan de andere kant van die schaal. Hoewel? Ik kan natuurlijk in het geval van die overduidelijke “tegen de muur rijdt”-situatie stellen dat het de verantwoordelijkheid van de autofabrikant zou moeten zijn dat hij technologie had moeten aanbrengen op het voortuig, waarmee het onmogelijk is om bewust tegen een muur te rijden. Op dat moment schuift de gehele verantwoordelijkheid, aansprakelijkheid en schuld richting fabrikant.
Je voelt hem al aan, hoe ver moet je gaan en welke prijs, producteigenschappen en randvoorwaarden moet je stellen aan het gebruik van een product? In de huidige zelf bestuurde auto wordt dat “door algemene consensus” bepaald. In vage situaties laten we dat voorkomen voor een rechtbank. Ik gok dat dat in geval van robots niet veel anders zal zijn. Er zal aan het begin veel jurisprudentie, wet- en regelgeving worden opgesteld, die in de loop van de tijd worden aangepast aan de door de samenleving geaccepteerd risico. Van te voren dat denken te weten is zinloos.
Stel, dat een robot zo slim wordt, dat deze een bewustzijn krijgt.
Deze zal zich dan tegen uitschakeling (willen) gaan beveiligen.
Kan je dan een robot veroordelen b.v. voor het gebruiken van de chocolademelk?
Als een mens een biochemische robot is hoe zit dat dan met het zelfbewustzijn?
*laat de microfoon vallen*