BLOG – Generatieve artificiële intelligentie (gen-ai) is razendsnel uitgegroeid tot een revolutionaire technologie met ChatGPT als vlaggenschip. Slechts vijf dagen na de lancering in november 2022 had de ai-tool al een miljoen gebruikers; inmiddels trekt ChatGPT maandelijks meer dan anderhalf miljard bezoekers.
Dat gen-ai zo populair is, is te danken aan de veelzijdige toepassingen en toegankelijkheid van deze tools. Ze zijn immers vaak gratis en intuïtief te gebruiken met een vertrouwde chatbot-interface. Gen-ai-tools bieden bedrijven verschillende voordelen, zoals een betere klantervaring, verbeterde efficiëntie en kostenbesparing. Maar achter de belofte van gen-ai schuilen ook ethische en zakelijke uitdagingen. Een verkenning van het ethische landschap rondom deze technologie.
Filterbubbels
Het belang van menselijk toezicht bij ai-systemen wordt steeds groter. Dat komt doordat deze technologie ‘filterbubbels’ kan creëren, waardoor de gebruiker aan weinig verschillende perspectieven wordt blootgesteld. Bovendien bestaat het risico dat gen-ai wordt ingezet om mensen te manipuleren en besluiten te beïnvloeden, wat kan leiden tot verwarring en misleiding. Om de balans te vinden tussen het potentieel van gen-ai en de noodzaak van menselijke controle is onderzoek en ontwikkeling van beleid en tools cruciaal. Ook moeten stakeholders zoals de overheid en ontwikkelaars meer toezicht houden op de gevaren. Dit moet de autonomie van gebruikers beperken, zodat zij minder makkelijk misbruik kunnen maken van gen-ai-tools.
Nepnieuws
De vooruitstrevendheid van gen-ai roept vragen op over de veiligheid en betrouwbaarheid van de output. Een van de zorgen is de mogelijke rol bij de verspreiding van desinformatie en nepnieuws, wat de publieke opinie en het vertrouwen in instellingen kan ondermijnen. Denk aan de foto’s van de arrestatie van Donald Trump die massaal werden gedeeld, maar nep bleken te zijn. Onderzoek naar kwetsbaarheden en de ontwikkeling van tegenmaatregelen zijn daarvoor cruciaal. Dit vereist nauwe samenwerking tussen overheden, technologiebedrijven en cybersecuritydeskundigen om de veerkracht en veiligheidskwestie van gen-ai effectief aan te pakken.
Krantenartikelen
Gen-ai gebruikt uitgebreide datasets, inclusief persoonlijke en auteursrechtelijk beschermde informatie, die doorgaans worden verzameld via openbare bronnen. Denk aan krantenartikelen. De mogelijkheid dat de door ai gegenereerde inhoud sterk lijkt op bestaande werken, roept vragen op over de originaliteit en auteursrechteninbreuk. Zo spant de New York Times een rechtszaak aan tegen Microsoft en OpenAi voor het schenden van het auteursrecht. De krant beschuldigt hen ervan miljoenen artikelen te hebben gebruikt om de software te trainen, zonder hun toestemming.
Om deze ethische kwestie aan te pakken, moeten er duidelijkheid zijn over hoe met data om te gaan. Dat betekent dat er strikte regels moeten zijn voor het verzamelen en gebruiken van gegevens en de onduidelijkheid rondom auteursrecht en eigendom moet tegen het licht. Zo stelt de AI-wet al voor dat bedrijven moeten voldoen aan de Europese wetgeving omtrent auteursrechten.
Transparantie
Gen-ai-modellen staan vaak bekend als ‘blackboxes’, ofwel de besluitvormingsprocessen zijn niet transparant. Dit gebrek aan transparantie roept vragen op over de eerlijkheid en controleerbaarheid. Het is immers voor gebruikers en developers moeilijk om de conclusies van deze modellen te begrijpen. Om de werking van deze zwarte dozen duidelijker te maken, moeten er manieren ontwikkeld worden om de resultaten van gen-ai-modellen te verklaren. Denk aan het zichtbaar maken van hoe het model werkt, het analyseren van wat het heeft geleerd, en het testen van de resultaten met data.
Stereotypen
Gen-ai-modellen kunnen stereotypen versterken of bepaalde groepen negeren. Het aanpakken van deze vooroordelen vereist zorgvuldig ontwerp en continue evaluatie van trainingsgegevens. Het waarborgen van diversiteit, antidiscriminatie en eerlijkheid in gen-ai-toepassingen is niet alleen ethisch noodzakelijk, maar ook cruciaal voor het bouwen van inclusieve en rechtvaardige ai-systemen.
Maatschappelijke- en milieugevolgen
Gen-ai heeft ook gevolgen voor het milieu en de maatschappij. Zo hebben gen-ai-tools een negatief effect op de klimaatverandering omdat ze aanzienlijk meer elektriciteit gebruiken in vergelijking met traditionele zoekmachines. Ook is er voor het gebruik van ai-chatbots veel water nodig: tien tot vijftien vragen kosten al snel een halve liter. De stap naar gen-ai vereist dan ook een overgang naar hernieuwbare energiebronnen voor datacenters om de ecologische voetafdruk te verminderen. Naast deze milieueffecten heeft het gebruik van gen-ai ook invloed op de samenleving. De aard van het werk voor een scala aan banen staan onder invloed van de komst van deze tools. Dit kan in sommige gevallen betekenen dat banen verdwijnen, maar ook dat bijscholing nodig is.
Terwijl gen-ai blijft evolueren en verschillende aspecten van ons leven beïnvloedt, blijft het vinden van de juiste balans tussen innovatie en regulering een dynamische en voortdurende inspanning. Dit zal de komende tijd dan ook een belangrijk thema blijven.
Gerhardus Lindeque is technical manager bij NTT DATA