Massale digitalisering van ons leven heeft ons in een nieuwe wereld gebracht: De zogenaamde ‘Quantified World’, met data als de nieuwe delfstof. Wie deze weet te verzamelen en goed te ontginnen ontwikkelt sneller dan de concurrentie nieuwe kennis en kunde en verovert deze nieuwe ‘gekwantificeerde wereld’.
Grote wetenschappelijke instrumenten, biljoenen componenten van het ‘internet of things’, satellieten, vliegtuigen, auto’s, social media, quantified self apparaten enzovoort produceren astronomische hoeveelheden ‘big data’ over ons en over de wereld om ons heen. En we zijn tegenwoordig in tegenstelling tot een paar jaar geleden, wel in staat om deze data te bewaren en te verwerken. Computers brachten in de jaren zeventig van de vorige eeuw, een nieuw wetenschappelijke paradigma mee naast theorie en experimenten, namelijk simulatie en modellering. Big data is het vierde wetenschappelijke paradigma geworden dat ons zal helpen, net als de empirische experimenten vroeger, zeer complexe fenomenen beter te begrijpen, nieuwe ontdekkingen te doen en kennis en kunde verder te ontwikkelen. Vandaar dat de duurste top vijf bedrijven in de wereld ict-bedrijven zijn. Data zijn meer waard geworden dan olie en goud.
Echter, de meeste op data gebaseerde wetenschappelijke ontdekkingen en business innovaties moeten nog komen en de technologische, financiële en organisatorische uitdagingen zijn enorm. De wetenschappers hebben niet alleen te maken met een astronomische groei van data, maar ook van publicaties. En afgezien van het enorme gebrek aan geld voor adequate dataopslag en beheer, is een open en multidisciplinaire toegang tot data en publicaties ook een enorme uitdaging. En mochten opslag, beheer en toegang goed geregeld worden, dan is er het volgende probleem: namelijk één van blikveld en schaal. Hoe zorgen we ervoor dat onderzoekers, ontwikkelaars en analisten de enorme bergen aan multidisciplinaire data en publicaties weten te benutten? Intuïtieve multimodale gebruikersvriendelijke dataomgevingen zoals het Collaboratorium bij Surfsara in Amsterdam zijn dan hard nodig. Daar wordt de gebruiker stap-voor-stap begeleid en wordt de interactie met de data- en rekenfaciliteiten gefaciliteerd. En zoals geen mens alles kan weten, kan geen enkel monolithisch computersysteem alle disciplines even goed bedienen. Vandaar dat de toekomstige nationale supercomputer van surfsara een zogenaamde ‘unified computing’ architectuur zal hebben en uit gefedereerde delen zal bestaan, waar elk deel geoptimaliseerd wordt voor een specifiek rekendoel of grote toepassing.
Door deze ‘Quantified World’, heeft ‘artificial intelligence’ (ai), na decennialang deceptie en teleurstellingen, weer kunnen gedijen. Ai heeft het bijzondere vermogen om de werking van onze hersenen na te bootsen en data en kennis uit perceptie en ervaringen in machinekennis en -kunde om te zetten. De toepassingen van ai en machine learning, als ultieme benutting van big data, zijn enorm en overtreffen de meeste wilde fantasieën: van intelligente robots, tot zelflerende fabrieken, tot zelfrijdende voertuigen, tot empathische huisartsavatars en zelfs creatieve cyberambtenaren.
Ai weet ons tegelijkertijd te verbazen, betoveren, inspireren maar ook te intimideren. De grootste uitdaging blijft dat het zichzelf moet kunnen verklaren. Daar is tijd voor nodig om uiteindelijk de ‘black box’ besluiten van ai in theorie en wiskundige formules om te kunnen zetten. Een mens zal een machine moeilijk kunnen vertrouwen indien deze zijn autonome beslissingen niet kan uitleggen. HAL9000 in ‘2001: A Space Odyssey’ is tenslotte niet voor niets door de mens uiteindelijk uitgeschakeld.
Prof.dr.ir. Anwar Osseyran, ceo Surfsara
(Deze bijdrage is afkomstig uit Computable Magazine, editie 05/2018.)