Als een kunstmatige intelligentie (ai)-expert wordt mij vaak gevraagd: wat gaat er dit jaar gebeuren? Ik heb geen glazen bol om in de toekomst te kijken, of ai-systeem om dit soort voorspellingen te doen, maar er zijn enkele interessante trends die ik u zeker niet wil onthouden.
Ik zal niet ingaan op de groeicijfers van ai-systemen, of dat diegenen die geen ai gebruiken zullen achterblijven, of dat de ai-bubbel zal barsten of dat er een nieuwe ai-winter zal komen. Er is veel vooruitgang geboekt, maar niet genoeg om de volgende hindernis te nemen: Hoe kan u kennis vergaren over uw bedrijf of organisatie met behulp van ai?
Wat zal ai ons in de nabije toekomst brengen? Laat me drie belangrijke onderwerpen bespreken die mij aan het hart liggen:
Machine Learning blijvertje
Ai begint al de manier, waarop organisaties zaken doen, te transformeren, hoe ze hun klantrelaties beheren en hoe ze ideeën en creativiteit stimuleren om zo baanbrekende innovaties te voeden’, aldus Capgemini.
Drie jaar geleden waren goede gebruikscases voor machine learning moeilijk te vinden. Nu zijn er overal succesverhalen te lezen. Machine learning, deep learning, neurale netwerken en alle andere varianten zijn nu overvloedig in gebruik. Dus wat er ook dit jaar zal gebeuren, machine learning hoort er gewoon bij en het zal nog succesvoller worden naarmate meer organisaties ai gaan gebruiken bij hun dagelijkse activiteiten.
Al deze ai-algoritmen vormen nu een integraal onderdeel van veel data-gedreven tools. Voor data-analisten is het gebruik van ai door slechts één klik in te schakelen. Maar betekent dit dat ai correct wordt gebruikt? Ik ben bang van niet, omdat:
- Datakwaliteit is nog steeds een groot probleem. Zonder datakwaliteit liggen vooringenomenheden en vooroordelen (Bias) om de hoek en is de output van de ai niet nauwkeurig.
- Ethiek wordt vaak als iets extra’s beschouwd, maar het zou aan de basis moeten liggen van elke ai-implementatie – of beter, in het hart van elk big data-project.
- Er is nog steeds onvoldoende aandacht voor de kwaliteit van de resultaten van ai. Statistische methoden zoals accuratesse, precisie, recall en F1 Defined zijn absoluut goede indicatoren. Maar we hebben nog steeds een maatlat nodig om dat te meten. Veel organisaties hebben geen flauw idee hoe ze de kwaliteit van hun beslissingen moeten meten.
Maar bedrijfsprocessen omvatten meer dan alleen de uitvoering van taken. Hoe kunnen we bepalen of onze ai echt een verbetering is ten opzichte van door mensen gebaseerde acties? Dit is nog steeds een open discussie.
Momenteel zien we machine learning worden gebruikt in zeer beperkte toepassingen, om processtappen efficiënter te maken of om vervelende taken te verlichten. Maar hoe ai zal bijdragen aan een betekenisvol rendement is ook een grote vraag, zowel vorig jaar als in 2020.
Discussies over ethiek
‘Ai-ethiek is niet alleen een feel-good-add-on – een wens maar geen vereiste. Ai is een van de grote uitdagingen op het gebied van de mensenrechten van de 21ste eeuw’, aldus Khari Johnson.
Vorig jaar kwamen de discussies over de ethiek van ai echt op gang. Hoewel het voornamelijk academisch is, richt de discussie zich nu niet alleen op de (im)morele gevolgen van ai, bijvoorbeeld discriminatie, verlies van banen en ongelijkheid. De focus ligt nu op waarden. Bestaat er zoiets als ‘ai voor het goede‘? Willen wij als samenleving echt beslissende krachten geven aan machines? En zijn die machines eerlijk en open? En hoe zit het met checks-and-balances?
Deze discussies richten zich niet alleen op ai. Ze hebben ook betrekking op het gebruik van big data. Slimme steden, gezichtsherkenning, fraudedetectie – dit zijn allemaal gebieden waar beveiliging, privacy, nut en noodzaak vooraf moeten worden besproken en beoordeeld. Dit vereist de beoordeling van de ethische vraagstukken vanaf het begin van het project. Zal de ethiek van ai een zware plicht zijn of ook leiden tot concurrentievoordeel? Ik weet het nog niet.
We zullen ethische frameworks zien verschijnen. Net als compliancy frameworks voor accountancy, bieden ethische kaders manieren om de ethische implicaties van ai te beoordelen. Zoals elk raamwerk zijn ze geen excuus om niet onafhankelijk en systematisch over ai te denken. Frameworks garanderen geen correct resultaat. En er zal discussie ontstaan over hoe deze kaders in een zakelijke context te gebruiken.
Streven naar kennis
‘Deep learning heeft ons in plaats daarvan machines opgeleverd met werkelijk indrukwekkende capaciteiten maar zonder intelligentie. Het verschil is groot en ligt in de afwezigheid van een model van de werkelijkheid’, stelt Judea Pearl.
Machine learning, inclusief deep learning en neurale netwerken, is succesvol. Deze methoden zijn allemaal erg goed in het extraheren van informatie uit gegevens. Ja, ik ben me bewust van de vele fouten die machine learning maakt, en hoe het, meestal beeldherkenning, voor de gek kan worden gehouden. We moeten van deze fouten leren door de algoritmen en leerprocessen te verbeteren. Maar ai van veel meer dan alleen machinaal leren. Cognitive computing, symbolic ai en contextual reasoning zijn ook ai. We moeten het gebruik van deze andere ai-technieken voor onze toepassingen opnieuw in overweging nemen.
Dit jaar blijven we de ‘black box’ van machine learning openen. De algoritmen zullen via interpretable machine learning inzicht geven in hoe zij hun beslissingen hebben genomen. Maar ai in een zakelijke context kan de juistheid en billijkheid van de beslissingen niet beoordelen.
Machine learning is goed in het extraheren van informatie uit gegevens, maar het is waardeloos in het extraheren van kennis uit informatie. Om gegevens informatie te laten worden, moet deze gecontextualiseerd, gecategoriseerd, berekend en gecondenseerd worden. Informatie is de sleutel tot kennis. Kennis is nauw verbonden met doen en impliceert ervaring en begrip. Dit roept de decennia oude filosofische vraag van ai op: ‘Begrijpen ai-systemen echt wat ze doen?’
Zonder John Searle’s Chinese Kamer nog eens te bezoeken, denk ik echt dat de volgende stap in ai alleen kan worden gezet als we een bepaald niveau van kennis of begrip van ai hebben. Om dat te doen, moeten we nog een stap zetten naar mensgelijke ai. Bijvoorbeeld door symbolic ai (of ‘klassieke’ ai) te gebruiken. Dit is de tak van ai-onderzoek dat zich bezighoudt met het proberen om de menselijke kennis expliciet weer te geven in een declaratieve vorm (dat wil zeggen feiten en regels).
De combinatie van deze oudere technieken met neurale netwerken in een hybride vorm zal ai nog verder brengen. Dit betekent dat oorzakelijk verbanden, kennisrepresentaties enzovoorts, belangrijke factoren worden om ai naar het volgende niveau te brengen; een volgend niveau dat nog spannender zal zijn dan de resultaten die ai dit jaar heeft bereikt.
Interessant artikel, ook wat betreft ‘de stand van zaken’.
U zegt in dit artikel o.a. “datakwaliteit is nog steeds een groot probleem”.
Betekent dit ook dat u pleit voor verbetering van de fase voor machine learning, nl deep learning?
Beste Ernst, ik begrijp je oplossing niet helemaal. Deep learning is voor mij een subklasse van Machine Learning. Het lost het datakwaliteitsprobleem niet op. Want het is de data die wordt gevoed aan de ML. Conform de IT-zegswijze “carbage in – carbage out” zal bij slechte datakwaliteit bij de input de uitkomsten van ML ook slecht zijn. Het gaat om de klassiek datakwaliteitsattributen: Tijdigheid, Volledigheid, Accuraatheid, Consistentheid, Begrijpbaarheid en Uniekheid. Waarbij vooral accuraatheid in het spotlicht staat, namelijk is mijn data representatief voor de populatie waar ik iets over wil vinden. Zijn alle bevolkingsgroepen correct vertegenwoordigd? Bevat de data geen vooroordelen (bias)? Het bepalen van de datakwaliteit is voorlopig nog een handmatige actie, maar gelukkig komen er steeds meer tools beschikbaar om de beoordelaar te helpen bij zijn onderzoekingen. Groet, Reinoud
Reinoud,
Business analisten klagen graag over datakwaliteit, elke foutieve voorspelling is daarmee te verklaren. En het simpele onderbuikgevoel dat veel mensen hebben bevestig je dus met je opinie want de discussie over de ethiek is heel eenvoudig, één dode is een tragiek en duizend doden zijn statistiek. MBA-managers kwantificeren graag de dingen zonder te kijken naar de kwaliteit van de gegevens en leiders weten dat feiten en regels een context hebben welke uiteindelijk buigzaam is.
De knoop doorhakken in plaats van deze proberen te ontwarren is zo’n historisch voorbeeld van de menselijke adoptie in het denken aangaande veranderende regels. En complaince framewerken van zeggen wat je doet, doen wat je zegt en dat bewijzen blijken om een datakwaliteit te gaan van onweerlegbare vastlegging. De ‘garbage in, garbage out’ hierin is niet toevallig, het vervelende van een digitaal residu is dat met name de metadata zo belastend kan zijn. De kwaliteit van de data wordt namelijk bepaalt door de metadata, het manipuleren van de data is namelijk redelijk eenvoudig te doen.
‘Symbolic AI’ is een heel slecht idee; deze doodlopende weg hebben we allang gehad. In de jaren 80 van de vorige eeuw, om precies te zijn. Voor je het weet zitten we weer met de academische onzin van een ‘Gödel, Escher, Bach’.
Gecombineerd met alle tegenstrijdige opmerkingen die hier gemaakt worden over ‘machine learning’ kun je gerust stellen dat AI op het punt staat haar volgende winter in te gaan.
Zoals ik al stelde in een reactie op:
https://www.computable.nl/artikel/opinie/digital-transformation/6774583/1509029/niet-data-driven-maar-purpose-driven-en-data-assisted.html
Naar aanleiding van een zeer leesbaar (en dus aanbevolen) rapport “Duikboten zwemmen niet” op
https://detoekomstvanai.nl/
merkte ik nogal cynisch op:
“Heel knap wordt in dit rapport nog een poging ondernomen om de derde AI-winter af te wenden door het failliet van de derde AI-golf te combineren met het failliet van de tweede AI-golf door middel van het begrip Deep reasoning (blz. 172):
“Combinatie van deep learning en symbolic AI. Neurale netwerken zorgen ervoor dat het systeem op basis van patroonherkenning kan ‘zien’ en de symbolische programmering zorgt ervoor dat het systeem kan ‘redeneren’ “ “
Er zouden toch eens wat meer mensen moeten meedenken over 5GL, aangezien dat een vorm van declaratieve AI is die – aantoonbaar – wel levensvatbaar is.
https://dmcommunity.org/challenge/challenge-march-2019/
‘Gödel, Escher, Bach’ gaat juist over tegenstrijdigheden : In hoeverre systemen volledig en consistent kunnen zijn.
Geen academische onzin.