De vrees voor kunstmatige intelligentie (ai – artificial intelligence) is méér dan science fiction. Internationale beperking is nodig. Dit is de discussiestelling die Computable-lezers vandaag krijgen voorgelegd.
De angst voor kunstmatige intelligentie (artificial intelligence, ofwel ai) is een klassiek thema uit de science fiction en kent zijn oorsprong in de horror (van Mary Shelley’s boek Frankenstein). In de ict-wereld zijn waarschuwingen voor het ai-gevaar an sich niet nieuw: computerwetenschappers, cyberpioniers en denkers als Bill Joy, Kevin Warwick en Ray Kurzweil hebben begin deze eeuw al de noodklok geluid. Nu is er een breder gedragen waarschuwing; afgegeven door oprichters van ruim honderd bedrijven die actief zijn op het gebied van robotica en ai.
Zij zien groeiend gevaar in de versnellende ai-ontwikkelingen en het gebruik van drones, robots, zelfrijdende auto’s plus diverse andere vormen van zelfstandige bewegende en opererende ict-entiteiten. De waarschuwende experts, waaronderaiI-hoogleraar Toby Walsh en Tesla-oprichter Elon Musk, vrezen voor een wapenwedloop, hackaanvallen en meer oorlogen. ‘Vroeger had je een heel leger nodig om een oorlog te beginnen, en nu alleen een paar programmeurs’, legt Walsh uit in het FD. Disruptie, maar dan in een wel zeer gevaarlijke zin. Er is dus een internationaal non-proliferatieverdrag nodig, net als voor kernwapens.
Wat vind jij?
Gezien de relatieve eenvoud van de technologie – een moederboard, een paar motoren en een explosief zijn onvergelijkbaar veel goedkoper dan een opwerkingsfabriek en rakettechnologie – lijkt me een nonproliferatieverdrag onzinnig. Zo’n verdrag heeft alleen zin als (bijna) alle potentiële ontwikkelaars (bij kernwapens de rijkere landen) het verdrag ondertekenen.
Het aantal potentiële producenten van ict-entiteiten is veel groter. Dat maakt de kans op het beheersen veel kleiner. Dan moeten we geen schijnzekerheid wekken met een papieren tijgertje.