Van tekst tot foto’s of video’s, en zelfs uitvoerbare code. Generatieve ai geeft iedereen toegang tot een ongezien niveau van artificiële intelligentie. Modellen zoals ChatGPT en Stable Diffusion zijn in staat om dingen te doen die in de voorbije tien jaar nog ondenkbaar waren. En dat vaak zelfs gewoon op basis van input uit natuurlijke taal. Maar al dat potentieel brengt ook nieuwe risico’s met zich mee.
Vertrouwen is dan ook het sleutelwoord in de ontwikkeling van generatieve ai.
Op het einde van 2022 gebruikten onderzoekers van twee Amerikaanse universiteiten generatieve ai, meer bepaald ChatGPT, om tekstextracten te genereren op basis van titels afkomstig uit vijf medische tijdschriften. Bij een derde van de door ai geproduceerde fragmenten dachten ze onterecht dat ze met de originele tekst te maken hadden. En in veertien procent van de originele extracten oordeelden ze verkeerd dat de tekst door ChatGPT gegenereerd was. Indrukwekkend, maar tevens gevaarlijk wanneer zelfs getrainde experten om de tuin zijn te leiden door de kracht van een ai-systeem.
Aan de andere kant mogen we ook niet uit het oog verliezen dat er grenzen zijn aan het vermogen van ai. Een zogenaamd Large Language Model, getraind met echte data uit teksten, kan dan wel heel sterk zijn in het schrijven van taalkundig correcte paragrafen, het is minder in staat om zoals menselijke schrijvers te redeneren of een portie gezond verstand toe te passen. Dat onevenwicht moeten we oplossen vooraleer generatieve ai-tools een bedrijfskritische rol kunnen opnemen.
Vertrouwen
Generatieve ai biedt uiteraard heel wat mogelijkheden die het verkennen waard zijn. Meestal zal tot op een bepaald niveau nog altijd menselijke interventie nodig zijn. Wanneer we ai bijvoorbeeld gebruiken om marketingteksten uit te werken, dan blijft het aanbevolen om de output door een redacteur te laten nakijken om de feiten te checken en het geheel verder te verfijnen. Soms kan die feedback ook binair zijn door het systeem simpelweg te vertellen of de output al dan niet voldoet.
Doorgaans zit de kracht van een ai-systeem in de samenwerking met mensen. Zoals bij een it-beheerder die een ai-model inschakelt om code te genereren voor het bouwen van een applicatie. Als het model de routinetaken overneemt, dan heeft de ontwikkelaar meer tijd om zich bezig te houden met creatief werk dat een meerwaarde voor de eindgebruiker biedt. Om dat te kunnen doen, moeten we eerst het bewustzijn rond ai vergroten, zodat mensen een beter begrip krijgen van de sterke en zwakke punten van de technologie. En kunnen beoordelen of de output betrouwbaar is.
Vertrouwen is een basiscomponent tijdens het bouwen van ai-producten. Dagelijks worden miljarden voorspellingen gedaan die verschillende aspecten van de business ondersteunen. In sales kan ai bijvoorbeeld aanbevelingen doen om een deal sneller af te ronden. In callcenters kunnen medewerkers chatbottechnologie gebruiken om de eerste interactie met klanten uit te voeren, zodat zij zich kunnen toeleggen op meer complexe vragen. Marketeers kunnen dankzij ai het gedrag van klanten beter begrijpen en op basis daarvan gepersonaliseerde content aanbieden.
Vijf richtlijnen
Op dezelfde manier verkennen we vandaag generatieve ai. Daarbij maken we gebruik van vijf richtlijnen die ervoor moeten zorgen dat ai-producten betrouwbaar zijn:
- Focus op nauwkeurigheid
De resultaten van generatieve ai moeten verifieerbaar zijn. Zeker wanneer er onzekerheid over de accuraatheid bestaat, is communicatie cruciaal zodat gebruikers de correctheid van de output kunnen valideren. Bijvoorbeeld via bronvermelding of door het systeem te laten uitleggen hoe en waarom het bepaalde keuzes maakt. Daarnaast zijn ook voldoende vangrails nodig om te voorkomen dat bepaalde taken volledig worden geautomatiseerd. Het probleem met externe modellen is dat ze getraind zijn op heel wat data waar je als bedrijf geen inzicht noch controle over hebt. Je zou dus eigenlijk de kracht van het algoritme moeten kunnen loslaten op een set van training data die jij aanlevert als bedrijf en waarvan je ook de kwaliteit kunt controleren.
- Safety first
De output van ai moet worden beoordeeld op bias, verklaarbaarheid en robuustheid. Dit kan door ai-modellen te trainen op basis van enorme datavolumes die relevant zijn voor de use-cases van klanten die de tools gebruiken. Uiteraard met de nodige bescherming in het kader van privacy. Om schade te voorkomen, is het ook aanbevolen om code in een sandbox te publiceren in plaats van alles automatisch naar een productieomgeving te pushen.
- Wees eerlijk
Niet alleen moeten we waken over de herkomst van de data, transparantie over het feit dat iets door ai gecreëerd is, is minstens zo belangrijk. Zeker als die content autonoom wordt aangeleverd, zoals bij het gebruik van een chatbot om met klanten te communiceren.
- Versterking van menselijke capaciteiten
In sommige gevallen kan het aanbevolen zijn om processen volledig te automatiseren, maar er zijn ook situaties waarin ai best een ondersteunende rol opneemt of waarin een menselijke interventie vereist blijft. Het gaat erom dat we het juiste evenwicht vinden om onze eigen capaciteiten optimaal te benutten en tegelijkertijd toepassingen voor iedereen zo toegankelijk mogelijk te maken.
- Denk duurzaam
Zoals met alles, staat het milieu voorop, dus ook wanneer we generatieve ai-modellen bouwen. Een groter model heeft immers een grotere ecologische afdruk. En groter is niet altijd beter bij ai. Soms kan een kleiner, beter getraind model meer waarde opleveren. En naast de ecologische footprint heb je nog het financiële plaatje. Grote modellen vergen veel rekenkracht.
Bewustzijn
Generatieve ai heeft dus een immens potentieel, maar daar staat een bewustzijn van ontwikkelaars tegenover van verantwoordelijkheid voor het inbouwen van vertrouwen en transparantie. Als we hierin slagen, dan zal deze technologie de wereld zonder twijfel op een positieve manier veranderen.
@Gianni. Als het ai-model routinetaken overneemt van de IT-beheerder?? ChatGPT en BingChat zijn nou juist zo ijzersterk in incidentele taken. Verder zeg je “het is minder in staat om zoals menselijke schrijvers te redeneren of een portie gezond verstand toe te passen”. Maar dat is dan toch in strijd met het onderzoek waar je in de alinea erboven aan refereert? In dat geval zou het een makkie geweest zijn om AI-teksten to onderscheiden. Het verrassende van ChatGPT is nou juist dat het onwaarschijnlijk diep inzicht kan vertonen. Ik heb daar diverse staaltjes van liggen.
Rob, chatGPT zijn best goed in redenatie, ze hebben alleen geen presence in de realiteit en kunnen dus niet plannen of real-world consequenties kennen.
Dus het is net waar je het op toe past. Computer code? goed. Handelen in de realiteit en de gevolgen daarvan doorzien? Slecht.
Dus is AI slim? It depends 🙂