BLOG – Alles wat ons in gevaar kan brengen, heeft richtlijnen nodig om de veiligheid te waarborgen. Dit geldt ook voor ai. Als het gebruik van ai toeneemt, groeit de behoefte aan duidelijke regels voor verantwoord gebruik.
Tot nu toe richtte veel discussies rondom ai zich op vragen als wanneer wordt ai slimmer dan mensen of gaat ai ons uiteindelijk vervangen? Die ‘vervangingsboot’ is al gemist. Ai-assistenten en -agenten nemen veel taken al over, van het schrijven van berichten en softwarecode tot het nemen van beslissingen in vrijwel alle aspecten van ons leven, of we ons daar nu van bewust zijn of niet.
De discussies zijn veranderd. Het gaat niet over het verbieden van ai, maar om het ontwikkelen van beleid om risico’s te beperken en mechanismen voor educatie en handhaving te implementeren. Als we de ‘autorijden-analogie’ gebruiken, praten we over snelheidslimieten en veiligheidsgordels, maar ook over rijopleidingen en rijbewijzen.
Afval
Ai-modellen hebben processen en de productiviteit in alle sectoren verbeterd, van de detectie van borstkanker tot het verminderen van afval. Om de meer schadelijke effecten van ai aan te pakken, publiceren organisaties richtlijnen en is er wetgeving ontwikkeld, zoals de AI Act van de Europese Unie. Daarnaast ontwikkelen technologieaanbieders tools om de transparantie en begrijpelijkheid van ai te vergroten. Deze maatregelen zijn een eerste stap om risico’s te identificeren en te verhelpen, maar ook om gebruikers en ontwikkelaars bewuster te maken van de mogelijke impact.
Iedereen op de werkvloer moet datavaardig en ai-bewust zijn
Naast regulering en wetgeving is ai- en databeheer binnen organisaties cruciaal. Iedereen op de werkvloer moet datavaardig en ai-bewust zijn. Ze moeten weten hoe data wordt gebruikt, welke bedrijfswaarde het levert, welke risico’s ze in de gaten moeten houden en wat hun rol daarin is. Aan de technische of praktijkgerichte kant hebben organisaties gedetailleerde toegangs- en gebruiksrichtlijnen nodig om ervoor te zorgen dat data goed wordt beschermd en op de juiste manier wordt gebruikt. Iedereen speelt een rol, of het nu gaat om het nauwkeurig vastleggen of beschermen van data, het bouwen van algoritmes en applicaties die de data analyseren, of het nemen van beslissingen op basis van de aangeleverde inzichten.
Hallucinaties
Er is geen ai-strategie zonder een datastrategie, of zonder de data zelf. Meer en diverse data voedt niet alleen ai-modellen, maar vermindert ook de risico’s van hallucinaties. Dus minder risico op onnauwkeurige antwoorden of resultaten die niet objectief of neutraal zijn (ai-bias). Ai-modellen ‘verzinnen’ doorgaans geen antwoorden, maar kunnen wel informatie uit onbetrouwbare bronnen halen. Vooral in de risicovolle bedrijfswereld is diverse, relevante en hoogwaardige data het belangrijkste ingrediënt.
Gelukkig is ai nu in staat om problemen met datakwaliteit effectief aan te pakken. Ai-automatiseringen kunnen bijvoorbeeld afwijkingen detecteren, data proactief corrigeren bij de invoer, inconsistenties tussen verschillende entiteiten oplossen en synthetische data genereren. Bovendien kan ai bijdragen aan databeveiliging door kwetsbaarheden te identificeren. Dit betekent niet dat je achterover kunt leunen. Verantwoordelijke data- en ai-praktijken vereisen een sterk databeheer, waarbij gebruik wordt gemaakt van privacybeschermende technologieën.
De wereldwijde samenwerking die al plaatsvindt, is bemoedigend
Tot slot moet de data relevant zijn voor het specifieke gebruiksscenario. Dit maakt enterprise-ai anders dan algemene ai-tools. Een enterprise ai-model wordt gekozen om een specifieke uitdaging aan te pakken, zoals het voorspellen van verkopen, het aanbevelen van producten of diensten, het identificeren van afwijkingen of defecten in de productie of het signaleren van vertragingen in de supply chain. De keuze van het ai-model, inclusief de beslissing om het zelf te bouwen, te kopen of te verfijnen, kan de risico’s van hallucinatie of bias verminderen. Enterprise-ai is doelgericht ontwikkeld, wat leidt tot een efficiënter gebruik van middelen.
Fossiele brandstoffen
Dat brengt ons bij een ander groot vraagstuk rondom ai: duurzaamheid. ai wordt verwacht een impact te hebben op het optimaliseren van het gebruik van fossiele brandstoffen en de adoptie van andere energiebronnen bevordert. Echter, ai verbruikt zelf veel energie. Onderzoekers schatten dat ChatGPT meer dan een half miljoen kilowattuur elektriciteit per dag gebruikt, wat gelijkstaat aan het verbruik van bijna 65.530 Nederlandse huishoudens. Het is tijd om ai in te zetten om oplossingen te vinden ter compensatie van de eigen energiebehoefte.
Bedrijven moeten we een balans vinden tussen het experimenteren met verschillende doelgerichte ai-gebruiksscenario’s en het garanderen van correct gebruik, met een oprecht doel en uiteindelijk een rendement op investering. De adoptie van enterprise-ai met speciaal gebouwde, efficiënt getrainde agenten is een belangrijke eerste stap. Transparantie in het proces, van in– tot outputs en resultaten, draagt bij aan een beter begrip van de milieu-impact en de afwegingen die worden gemaakt voor zakelijk rendement.
Verklaarbaarheid
Het stimuleren van een open dialoog en vooruitgang boeken richting ai-transparantie, en hopelijk verklaarbaarheid, zijn cruciale eerste stappen om de risico’s van ai te beperken. De wereldwijde samenwerking die al plaatsvindt bij evenementen zoals de Global ai Safety Summit, die het Bletchley Accord heeft opgeleverd, is bemoedigend. Het creëren van bewustzijn binnen het bedrijf op alle niveaus én onder consumenten vergroot de groep potentiële toezichthouders en geeft hen de kennis om signalen op te merken en de juiste vragen te stellen.
Deze lessen zijn toe te passen om ons begrip te verbeteren en de eisen voor de data- en ai-platforms van de toekomst te definiëren. Deze eisen zullen verder gaan dan de huidige overwegingen rond datadiversiteit, beveiliging, governance en duurzaamheid. De sleutel tot veiligere ai ligt in een dieper inzicht in zowel de positieve als de negatieve mogelijkheden, dat voortkomt uit bredere maatschappelijke data- en ai-geletterdheid.
Jennifer Belissent is principal data strategist bij Snowflake