BLOG – Volgens het tweemaandelijks magazine MIT Technology Review, eigendom van het Massachusetts Institute of Technology, zet 88 procent van alle organisaties generatieve ai in. Hoe zit dat binnen gereguleerde sectoren zoals de financiële sector, levensmiddelenindustrie, telecom of gezondheidszorg? Regulering maakt innovatie met nieuwe technologieën complexer. Dat betekent echter niet dat organisaties in gereguleerde sectoren niet mee kunnen in de ai-revolutie. Integendeel, het is goed mogelijk – met de juiste guardrails.
Zoals bij elke nieuwe revolutionaire technologie zijn er zorgen over het gebruik van ai. Kwesties rond auteursrecht, foutieve informatie en gegevenslekken zijn veel in de publiciteit gekomen. De daaruit voortvloeiende ongerustheid resulteert erin sommige teams hun ai-activiteiten terugschroeven, wat hun concurrentiepositie op termijn kan belemmeren.
Hoewel de ongerustheid begrijpelijk is, kunnen deze worden weggenomen met de juiste processen en procedures. Met een robuust datafundament en -overzicht, die op hun beurt sterke governance mogelijk maken, kunnen organisaties hun ai-implementatie met vertrouwen voortzetten.
Kinderschoenen
Hoewel er grote sprongen zijn gemaakt op het gebied van ai-innovatie, staat de technologie nog in de kinderschoenen. Tot nu toe zijn veel innovaties, zeker degene die mainstream zijn geworden, afkomstig uit branches die traditioneel minder gereguleerd zijn. De creatieve industrie is een specifiek voorbeeld, waar we veel innovatieve hulpmiddelen hebben zien opkomen die zijn vrijgegeven voor het publiek. Dit was in de vorm van het gebruik van chatbots om afbeeldingen of muziek te creëren, en meer recentelijk met de release van Sora, een ai-toepassing die video’s van zestig seconden kan maken op basis van een eenvoudige prompt.
De realiteit voor bedrijven in sterk gereguleerde sectoren ziet er heel anders uit. Er is aanzienlijk meer terughoudendheid om snelle ai-innovatie na te streven. Deze bedrijven maken zich natuurlijk meer zorgen over zaken als security en databescherming, maar veel van de aarzeling om te innoveren in deze sector komt voort uit onzekerheid over regelgeving. Wereldwijd hebben beleidsmakers het druk met de potentiële risico’s en gevaren die gepaard gaan met de ontwikkeling van ai en afhankelijk van het land kijken ze er net wat anders tegenaan. Als zodanig ontbreekt het nog steeds aan een duidelijke, gedefinieerde en universele benadering van ai-regelgeving.
Dit alles betekent dat gereguleerde bedrijven terughoudend zijn om veel tijd en middelen te investeren in de ontwikkeling van ai-systemen, zeker als er een kans bestaat dat veranderende regelgeving hen terugstuurt naar de tekentafel.
Scrapen
Een goede manier om het potentieel van ai op een veilige manier te benutten, is door kleinere taalmodellen in te zetten. Grotere modellen vormen een risico voor bedrijven omdat ze enorme hoeveelheden data van het gehele web scrapen, wat kan leiden tot het opnemen van irrelevante, slechte of beschermde data. Dit kan niet alleen leiden tot slechte resultaten, maar kan een organisatie ook blootstellen aan mogelijke juridische gevolgen en security-incidenten.
Kleinere taalmodellen hebben een beperktere focus dan hun grote broers, en worden getraind met een veel kleinere dataset op basis van de eigen gegevens van een organisatie. Door de modellen intern te houden, hoeven organisaties bovendien geen gegevens te delen met derden. Dit verlaagt de risico’s drastisch en stelt organisaties in staat om met vertrouwen te experimenteren met generatieve ai.
Datacultuur
Om het gebruik van kleinere modellen te ondersteunen, moeten organisaties een sterke datacultuur creëren en het nodige data-overzicht opbouwen. Het is essentieel dat alle medewerkers, ongeacht hun technische niveau, in staat zijn om data te begrijpen: hoe data worden opgeslagen, hoe ze worden gebruikt én hoe ze zijn te benutten om besluitvorming en innovatie te ondersteunen. Dit democratiseert het gebruik van ai in de hele organisatie, waardoor de noodzaak om op derden te vertrouwen afneemt.
Zo’n datacultuur creëert een belangrijke beveiligings- en governancelaag, omdat iedereen – zelfs niet-technisch personeel – op de hoogte is van het veilige en verantwoorde gebruik van data. Voor optimale governance is het echter belangrijk om dit niet alleen over te laten aan verantwoord gebruik door personeel. Een voorwaarde voor ai-gebruik in gereguleerde sectoren is een centraal data governance-platform dat het mogelijk maakt datastromen te monitoren. Naar de toekomst toe is het te voorzien dat compliance-rapportages moeten worden uitgevoerd rond het gebruik van ai in een organisatie. Dan is een centrale oplossing broodnodig. Maar ook zonder rapportageverplichting is gecentraliseerd beheer van ai-gebruik veel efficiënter voor governance-teams.
Naarmate ai wordt doorontwikkeld, zullen organisaties ook mee moeten evolueren. Nu er nog onzekerheid over regelgeving heerst, moeten bedrijven hun blik naar binnen keren en zich richten op de dingen die ze wél kunnen beheersen. Geef teams de nodige middelen en stel robuust databeleid op, om jezelf optimaal te positioneren om gebruik te maken van ai op veilige, gereguleerde wijze.
Kevin Jonkergouw is regional vp Benelux bij Databricks