Het risico dat de mensheid uitsterft door artificial intelligence (ai) is van eenzelfde orde van grootte als die van een kernoorlog. Niet verwarde geesten die de weg kwijt zijn of gekkies, maar een behoorlijk deel van de 'ai-elite' onderschrijft dit gevaar. Ze hopen dat wereldwijde regelgeving dit risico indamt. Indrukwekkend is de lijst van wetenschappers en leiders uit de techwereld die een manifest hiertoe heeft ondertekend van het Center for AI Safety, een gezaghebbende organisatie uit San Francisco die de maatschappelijke risico's van ai wil beperken.
Geoffrey Hinton, Yoshua Bengio en Martin Hellman, alle drie winnaars van een Turing Award – de belangrijkste prijs op gebied van computerwetenschappen – behoren tot de ondertekenaars van het eerste uur. Ook de ceo’s van de voornaamste ai-labs: Sam Altman (OpenAI), Demis Hassabis (Google/Deepmind) en Dario Amodei (Anthropic) zijn van de partij, evenals andere hoge bazen van onder meer Microsoft, OpenAI en Google. Van de Big Tech-bedrijven ontbreekt alleen Meta (Facebook), maar ook Nvidia, het Amerikaanse chip- en softwarebedrijf voor infrastructurele ai-vraagstukken dat in de lift zit, is geen ondertekenaar, voor zover bekend.
De wetenschappers achter bekende ai-systemen zoals AlphaGo en elke versie van GPT (David Silver, Ilya Sutskever) staan eveneens op de lijst. Ook ai-professors van Chinese universiteiten delen de angst voor ai. Hetzelfde geldt voor de auteurs ((Stuart Russell and Peter Norvig) van het standaard leerboek over ai en die (Ian Goodfellow en Yoshua Bengio) van het belangrijkste leerboek over deep learning.
Manifest
België is vertegenwoordigd door onder meer prof. Yves Moreau (KU Leuven) en prof. Aleksandra Pizurica (Universiteit Gent). Uit Nederland hebben Simon Friederich (Rijksuniversiteit Groningen) en Cosimo Della Santina (TU Delft) het manifest ondertekend.
Het Center for AI Safety spreekt van een historische coalitie van ai-experts. Ook prominente filosofen, ethici, juristen, economen, natuurkundigen, politicologen, pandemische wetenschappers, nucleaire wetenschappers en klimaatwetenschappers behoren tot de ondertekenaars.
Eerder dit jaar riep Future of Life.org alle ai-labs op om per direct minimaal zes maanden te pauzeren met het trainen van ai-systemen die krachtiger zijn dan GPT-4. Inmiddels is deze petitie door 32000 mensen ondertekend.
Helaas een utopie om AI aan banden te leggen. Criminelen en corrupte overheden en politici zullen zich nooit houden aan regelgeving.
De geest is uit de fles of wel de doos van Pandora staat open.
We zullen ermee moeten leren leven.
Zou het niet een beetje overdreven zijn? Persoonlijk heb ik toch liever wat AI dan een kernoorlog.
shall we play a game?__
@Jan P.
Wat als een volgzaam (of idioot) mens op basis van een AI uitkomst op ‘de knop’ drukt? Wat als een idioot van een president (en die zijn er, dat hebben we de afgelopen tijd wel gezien) besluit om niet eens een mens tussen de AI en die knop te zetten?
Ik ben het met Willem Beekhuis eens: de geest is uit de fles, er zijn Pandoras in deze wereld en zij hebben de doos (of kruik was het geloof ik) geopend.
Dom geboren, suf gewiegd en nooit wat bijgeleerd mist AI vaak nog de EQ van de moraal zoals met de film Wargames duidelijk werd. Het trainen van een model om tussen binaire keuze van winnen en verliezen het onverwachte te doen van een gelijkspel te accepteren raakt precies het probleem als we kijken naar de inzet van middelen. Mens versus machine zijn autonome drones het begin van het einde.
Tijd om de oude wetten voor robots van Isaac Asimov af te stoffen?
Zie: https://nl.wikipedia.org/wiki/Drie_wetten_van_de_robotica