Tech- en rechten-expert Bart van der Sloot deelt tien aandachtspunten voor verantwoorde generatieve ai
Als de risico’s van een technologie onbekend zijn, mag deze niet worden toegepast. Dat zogenoemde voorzorgsbeginsel moet de razendsnelle opkomst van generatieve ai in goede banen leiden. Het is één van de tien punten die dr. Bart van der Sloot, universitair hoofddocent van het Tilburg Institute for Law, Technology and society (Tilt), noemt in zijn maandag verschenen boek ‘Regulating the Synthetic Society’.
Om de samenleving te beschermen tegen de schadelijke gevolgen van generatieve ai moet wet- en regelgeving aangepast worden, stelt de hoofddocent aan het Tilburgse instituut. Zijn boek, dat in pdf gratis verkrijgbaar is, wordt aanbevolen door experts als rechter Maja Brkan, van het Hof van Justitie van de Europese Unie en prof. Luciano Floridi van Yale University. Van der Sloot benadrukt dat generatieve artificiële intelligentie zich met ongekende snelheid ontwikkelt. ‘De kansen van toepassingen zoals ChatGPT lijken eindeloos, maar dat geldt ook voor de gevaren. Hoe moeten we deze technologie reguleren opdat de risico’s worden beteugeld en de kansen optimaal kunnen worden benut?’
Hij vervolgt: ‘Experts voorspellen dat over vijf jaar meer dan negentig procent van alle digitale content volledig of gedeeltelijk door ai wordt gegenereerd. In zo’n ‘synthetische samenleving’ is mogelijk niet langer vast te stellen wat echt is en wat niet.’ Hoewel generatieve nog in de kinderschoenen staat, kan deze technologie al inhoud produceren die niet van echt is te onderscheiden. De impact van deze nieuwe realiteit op de democratie, de rechtsstaat, het functioneren van de pers en op persoonlijke relaties, is mogelijk ongekend, stelt hij.
Chat GPT en Deepfakes
Van der Sloot toont in zijn boek hoe synthetische technologieën, zoals ChatGPT, deepfakes en augmented en virtual reality, werken en bespreekt toepassingen in het onderwijs, de zorg en voor entertainment. Hij deelt ook hoe generatieve ai kan worden ingezet voor fraude, uitbuiting en identiteitsdiefstal. Daarnaast onderzoekt hij de diepere effecten, zoals een samenleving waarin geen gemeenschappelijke waarheid meer is (post-truth-samenleving), de privatisering van de publieke sfeer en het verlies van individuele autonomie en maatschappelijk vertrouwen.
10 aandachtspunten
Tien fundamentele punten die volgens de expert aandacht behoeven om generatieve ai-toepassingen in goede banen te leiden:
- Informatiepositie: Er is dringend behoefte aan meer informatie over ai, zowel bij burgers als bij toezichthouders. Marktpartijen moeten beter worden geïnformeerd over bestaande regelgeving die van toepassing is op ai.
- Strategische autonomie: Publieke alternatieven voor private en essentiële ai moeten worden overwogen, evenals bredere export- en importbeperkingen.
- Technologische specificaties: De noodzaak voor het vastleggen van technische criteria, verboden en moratoria (denk bijvoorbeeld aan stemklonen) moet worden onderzocht.
- Voorzorgsbeginsel: Het voorzorgsbeginsel (als de risico’s van een technologie onbekend zijn, mag deze niet worden toegepast) moet mogelijk worden toegepast op generatieve ai.
- Effectiviteit: De effectiviteit van een ai-toepassing moet worden bewezen voordat deze wordt toegepast.
- Maatschappelijke belangen: Maatschappelijke belangen en de cumulatieve effecten van synthetische technologieën moeten worden meegewogen in het regelgevingsregime.
- Wetgevingswijzigingen: Er moet worden nagedacht over wijzigingen aan het wettelijk kader, onder meer om virtuele verkrachting strafbaar te stellen.
- Toezicht: Een gespecialiseerde toezichthoudende autoriteit voor ai moet worden overwogen, die ruime bevoegdheden en middelen krijgt.
- Samenwerking: Er is meer samenwerking nodig tussen toezichthouders en overheidsinstanties van landen die de democratische rechtsstaat respecteren.
- Sancties: De capaciteit van toezichthoudende autoriteiten om boetes op te leggen en de schadevergoedingen die aan burgers worden uitgekeerd moeten zo groot zijn dat ze een afschrikkend effect hebben.
“een samenleving waarin geen gemeenschappelijke waarheid meer is (post-truth-samenleving), de privatisering van de publieke sfeer en het verlies van individuele autonomie en maatschappelijk vertrouwen.”
Zozo. Toemaar.
Toch zijn we al een eind op weg.
dag parallel universe, hello post-truth-samenleving. De waarheid als religie. Je gelooft wat je het leukste vindt. Al kun je bij religie ook shoppen. Rode of blauwe pil in de AI. Nested virtualization in de matrix en hoe weet je nog in welke omgeving je zit ?
Verwarrend hoor.
De risicos van dit artikel zijn niet bekend.
Daarom beter om het maar niet te lezen.