Tijdens een discussie over artificial intelligence (ai) waaraan ik onlangs heb deelgenomen (ExpertsOn AI, bij Yellow Communications) kwam een angst op tafel waarmee veel mensen lijken te kampen als het gaat om intelligentie en computers: het idee dat kunstmatige intelligentie slimmer wordt dan wij en daardoor zomaar eens dingen zou kunnen doen die we niet willen.
Films als The Terminator of The Matrix hebben daar natuurlijk enthousiast aan bijgedragen, maar ook serieuze deskundigen als ondernemer Elon Musk (Tesla; SpaceX), futuroloog Ray Kurzweil (Google; The Singularity University) en natuurkundige Stephen Hawking (auteur van onder andere A Brief History of Time) houden er terdege rekening mee dat kunstmatige intelligentie de menselijke intelligentie op afzienbare termijn voorbij gaat streven.
De vraag is wat er dan gaat gebeuren. Het zou natuurlijk een rampscenario kunnen worden – maar zowel ikzelf als mijn gesprekspartners in de discussie over ai denken dat het voorlopig in elk geval zo’n vaart nog niet zal lopen. Het is wel iets waar we serieus over moeten nadenken, maar de ai waar we op dit moment mee werken, komt niet eens in de buurt van dergelijke scenario’s. De toepassing van de ai waarover we nu voornamelijk praten is daarvoor veel te beperkt.
Machine learning
In de meeste gevallen hebben we het in feite over geavanceerde vormen van machine learning: systemen die weliswaar in staat zijn hun taken met een zekere intelligentie te benaderen, maar die er buiten hun toepassingsgebied totaal niet mee uit de voeten kunnen. Denk aan AlphaGo Zero, dat voor Google DeepMind dit jaar de wereldkampioen Go overtuigend wist te verslaan. Dat is een geweldige prestatie en een enorme stap in de ontwikkeling van artificial intelligence. Echter, verander de regels van het spel en AlphaGo Zero is nergens meer.
Dit soort oplossingen zijn vooral ‘perceived ai’: oplossingen die zich zo gedragen dat gebruikers geneigd zijn er menselijke eigenschappen aan toe te kennen. Het zijn razend slimme, maar ook heel erg beperkte vormen van intelligentie, met een zeer beperkt toepassingsgebied – en zo moet het voorlopig ook zijn. Maar die vormen van intelligentie hebben we wel heel erg hard nodig om greep te houden op de onvoorstelbaar snelle ontwikkelingen die vanuit de it op ons afkomen.
Volume
De grootste uitdaging ligt vooral in volumes. De hoeveelheid data die we genereren, de hoeveelheid verschillende manieren waarop organisaties, mensen en dingen met elkaar verbonden worden; het is allemaal zo groot dat de complexiteit van het geheel simpelweg niet meer te hanteren is voor de mens alleen. Mijn werkgever heeft onlangs nog onderzoek laten uitvoeren naar hoe goed bedrijven zijn voorbereid op de invoering van de GDPR. Daaruit blijkt dat bedrijven heel enthousiast met data en data-analyse aan de slag zijn, maar dat over het beheer en de beveiliging van al die data nog beangstigend veel onduidelijkheid bestaat.
Dat is absoluut reden tot zorg. Of het nu gaat over Yahoo, Equifax, Uber, Nederlandse ziekenhuizen of clubs als de ANWB, keer op keer blijkt dat zelfs grote, rijke en bekende ondernemingen, laat staan kleinere lokale bedrijven, overheden en organisaties, niet in staat zijn datalekken te voorkomen, en ook nog eens onvoorstelbaar veel tijd nodig hebben om überhaupt te ontdekken dat er data verloren is gegaan – en nog veel meer tijd om daar een passende reactie op te geven.
Denk niet dat Yahoo, Equifax of Uber niets aan cybersecurity deden. Het was alleen niet voldoende. Vroeg of laat wordt iedere verdediging een keer doorbroken. De vraag is vooral hoe snel je daarachter komt en hoe snel je erop kunt reageren. En dat is precies waar ai ons uitstekend kan helpen: zelflerende programma’s, die slim genoeg zijn om patronen in datastromen te analyseren, kunnen alarm slaan zodra ze iets ontdekken dat buiten de norm valt. Niet om zelfstandig politieagent te spelen – je moet er niet aan denken dat een algoritme de hele organisatie automatisch platlegt, omdat een medewerker een keer vanaf een vakantieadres een document met gevoelige informatie probeert te openen. Maar wel om een enorme hoop werk uit handen te nemen van de mensen die dat soort beslissingen uiteindelijk moeten nemen.
Ondersneeuwen
Juist in situaties waarin het cruciaal is snel een goed onderbouwd besluit te kunnen nemen, is het van belang dat relevante informatie niet ondersneeuwt in de enorme hoeveelheden data en gebeurtenissen die door onze it-systemen gaan. Machine learning en de huidige aanverwante vormen van kunstmatige intelligentie helpen ons inzicht en overzicht te houden in een wereld waar de hoeveelheid informatie groter is dan we zelfstandig kunnen bevatten. Zolang we het zien als een extensie van onze eigen intelligentie, en niet als een zelfstandig opererende entiteit, blijft ai geen bedreiging, maar een tool: eentje die we zorgvuldig moeten hanteren, maar die uiteindelijk onmisbaar is om controle te houden over de grote en complexe digitale wereld die we zelf hebben gecreëerd.
Goed artikel! Dit is inderdaad voor heel veel organisaties een struikelblok / barierre om iets met machine learning of AI te doen. Iets dat overigens ook door de leveranciers wordt gevoedt. “Ons systeem kan alles en je bent er niet meer dan 15 minuten me bezig” is geen beste binnenkomer. Gelukkig komt het steeds vaker voor dat specialisten de mogelijkheden en kaders van ML en AI beter uitleggen, zo ook dit artikel. Beginnen met dit soort nieuwe technieken is net als beginnen met “iets met internet” 20 jaar geleden. Je moet een duidelijk / realistisch doel voor ogen hebben, een goed plan van aanpak om er te komen en capabele mensen en tooling om het uit te voeren.