Meer dan duizend (ai-)wetenschappers en zakenlieden, onder wie Elon Musk, willen een pas op de plaats maken bij geavanceerd ai-onderzoek. In een open brief roepen ze alle ai-labs op minimaal zes maanden te pauzeren met het trainen van ai-systemen die krachtiger zijn dan GPT-4. De bevriezing moet per direct ingaan.
De kopstukken uit de techwereld vrezen dat de race naar steeds krachtiger toepassingen van artificiële intelligentie uit de hand gaat lopen. De potentiële gevaren voor de maatschappij en de mensheid worden onderschat, stellen de ondertekenaars, onder wie ook onderzoekers van Microsoft, Google, IBM en ASML. Niet-menselijke ‘geesten’ die niemand kan begrijpen, voorspellen of beheersen, vormen een reële bedreiging. De ondertekenaars vragen zich af of we machines onze informatiekanalen moeten laten overspoelen met propaganda en onwaarheid.
Invloedrijke tech-denkers als Steve Wozniak, medeoprichter van Apple, en bestseller-auteur Yuval Noah Harari scharen zich achter de oproep. Opvallend is dat tevens ceo’s van vooraanstaande ai-bedrijven zoals Conjecture, Stability AI, Deepmind, Beneficial AI, Attain.ai en Unanimous AI op de pauzeknop willen drukken.
Ook de Belgische ai-expert Luc Steels (Universiteit van Brussel), de Delftse hoogleraar Jeroen van den Hoven (ethiek en technologie), Christoph Weniger (UvA) en machine learning-deskundige Jeroen Franse (ABN Amro) vinden dat er eerst goede spelregels moeten komen.
Volgens de petitie van het Future of Life.org ontbreekt het aan veiligheidsprotocollen. Ai-labs en onafhankelijke experts moeten de pauze gebruiken om een reeks protocollen te maken voor geavanceerd ai-ontwerp en -ontwikkeling. Die regels dienen vervolgens streng te worden gecontroleerd. Tegelijk moet de sector samen met beleidsmakers werken aan robuuste systemen voor ai-governance. Dit betekent geen pauze in de ontwikkeling van ai in het algemeen, maar wel een stap terug in de gevaarlijke race naar steeds grotere, onvoorspelbare black-box-modellen.
Wie de petitie ook wil ondertekenen, klikt hier.