GESIGNALEERD – Een jaar geleden zette de lancering van ChatGPT kunstmatige intelligentie (ai) in de schijnwerpers voor het brede publiek. Velen maakte kennis met de ontelbare mogelijkheden van gpt-modellen en ook organisaties begonnen de meerwaarde van op ai gebaseerde tools te erkennen. Nu we een jaar verder zijn, weerlegt Jens Bontinck, technology strategy and innovation officer bij ML6, vier fabels over ai.
1. ‘Ai bestaat pas één jaar’
Ai bestaat al sinds de jaren 50. Hoewel het in die tijd nog in de kinderschoenen stond en de mogelijkheden beperkt waren in vergelijking tot de ai van tegenwoordig, waren de jaren 50 en 60 de beginjaren van deze technologie. De mogelijkheden die we vandaag de dag hebben met ai, zijn het resultaat van jarenlang trainen, testen en herhaaldelijk verfijnen van ai-technieken en modellen, waaronder de taalmodellen zoals gpt. Waar ai je al jaren helpt bij het filteren van spam, is ai nu overal: automatische vertaaldiensten, medische diagnoses en zelfs zelfrijdende auto’s.
2. ‘Ai is 100 procent betrouwbaar’
Zowel binnen als buiten het bedrijfsleven, moeten ai-oplossingen nauwkeurig en betrouwbaar zijn, maar dat is niet altijd het geval. Als ai-modellen worden getraind op basis van onjuiste of beperkte informatie, kunnen uitkomsten verkeerd beïnvloed worden. Om onpartijdigheid en vooroordelen (bias) te voorkomen en objectiviteit van ai-modellen te garanderen, is het noodzakelijk modellen grondig te trainen met gebalanceerde data, waarbij eventuele vooroordelen of een gebrek aan diversiteit worden uitgesloten.
Bovendien kun je de prestaties van ai-modellen meten waardoor fouten inzichtelijk gemaakt worden. Deze inzichten kunnen gebruikt worden om de betrouwbaarheid van je model te verbeteren en te begrijpen. Daarin schuilt ook een voordeel ten opzichte van een uitvoering van taken door mensen, die ook fouten maken of eigen meningen en voorkeuren hebben.
3. ‘Een bedrijf kan geen eigen ai-modellen trainen’
Het is zeker mogelijk voor bedrijven, zowel klein als groot, om hun eigen ai-modellen te trainen en te ontwikkelen. Je hoeft dus niet afhankelijk te zijn van de grote ai-tools van grote spelers. Sterker nog, het implementeren en trainen van je eigen ai-model zorgt vaak juist voor accuratere uitkomsten aangezien ze op jouw organisatie zijn afgestemd. Ze worden namelijk getraind op specifieke gegevens en informatie bedoeld voor jouw organisatie. Eigen modellen geven je ook flexibiliteit om specifieke taken van je bedrijf, die moeilijk te vervullen zijn met generieke modellen, uit te voeren. Denk bijvoorbeeld aan het lezen van medische verslagen met een eigen thematiek of aan het aanmaken van varianten van verpakkingen voor producten in de huisstijl van het merk.
Bovendien verbruiken eigen ‘kleinere’ modellen minder energie doordat ze gebruikmaken van eigen data. Tegelijkertijd geeft het je controle over de privacy en beveiliging van de gebruikte data.
4. ‘Ai gaat mijn baan overnemen’
Een ai-oplossing hoeft niet altijd een volledig proces of activiteit te automatiseren om waardevol te zijn. Het bewust kiezen voor menselijk toezicht en interventie is een manier om de betrouwbaarheid van het model te garanderen en het vertrouwen van de gebruiker op te bouwen. Ai zal banen dus niet direct overnemen, maar zorgt voor ondersteuning en vooruitgang op bepaalde gebieden. Het helpt mensen efficiënter te werken, waardoor er bijvoorbeeld meer ruimte is voor een betere werk-privébalans.
Dit artikel verscheen eerder in Computable 100, magazine #1 2024:
Gezien de Turingtest is AI inderdaad niet iets van het laatste jaar want ophef over toepassingen zoals ChatGPT vergeet dat een discussie over kunstmatige intelligentie al heel lang gevoerd wordt. Opmerkelijk hierin is het ontbreken van juridische argument want ‘computer says no’ gaat om een rechtsaansprakelijkheid van algoritmen.
Vooringenomenheid is menselijk want objectiviteit van AI-modellen schijnt uiteindelijk in de data te zitten, een eenzijdigheid die trouwens ook in veel statistiek zit. Je kunt managers dan ook veel makkelijker door AI vervangen dan het genie die de besluitvorming op basis van een empirische mening baseert.
Zeg maar een ervaring in de check & balance van verificatie want al 70 jaar blijkt de mens niet volledig uit het proces weg geautomatiseerd te kunnen worden. Want om van een schaakcomputer te winnen moet je gewoon het onverwachte doen, frustreer het model met iets wat niet geleerd is.
Empirische meningen verschillen nogal eens per bubble. Verificatie is net zo vooringenomen. Wat verifieer je waarmee met welke data. Checks en balance met presidenten die bepalen welke rechters er in hooggerechtshof komen.
https://www.ad.nl/buitenland/computer-met-nul-kennis-van-schaken-is-na-4-uur-beste-schaker-ter-wereld~a3876bd4/
Geen kennis van openingen, alleen de spelregels werden ingevoerd.
Computer says no of oudlid zegt yes..
AI die hallucineert of oudlid die beweert.
Benieuwd welke data AI krijgt ingevoerd om de midden oosten problematiek op te lossen 🙂