Voorspellingen zijn lastig. In 2009 kwam de iPhone 3GS op de nog jonge smartphonemarkt en Google Maps nam de rol van navigator over. Waar staan we over tien jaar? Zelfs los van de huidige ontwikkelingen rondom het coronavirus, is er nauwelijks iets over te zeggen. Zo lijkt het.
Je kunt natuurlijk wel leren van eerdere ontwikkelingen. Smart home assistants en streaming services werden al lange tijd voor hun komst aangekondigd door experts die oudere ontwikkelingen weten de extrapoleren tot voorspellingen voor de toekomst. Aan de andere kant is dat natuurlijk met terugwerkende kracht altijd makkelijk. We lachen om de oude kamerbrede computers die minder rekenkracht hebben dan je slimme koelkast.
Het is er al
Nu we allerlei mini-computers in ons huis en kantoor hebben gekregen, kunnen we concluderen dat de afgelopen twee jaar de periode van kunstmatige intelligentie (ai) is geweest. Van Alexa tot Google Home, Nest en smart speakers, in heel veel huizen is een vorm van ai aanwezig. Daarnaast worden ai-engines ingezet om onze nieuwsvoorziening en (zeer) gerichte advertenties te sturen op het web en social media.
Ai wordt door machine learning (ml) en andere aanvullingen nóg slimmer. Het stelt ai in staat om afwijkingen te herkennen, classificatie toe te passen op verzamelde data en voorspellingen te doen, bijvoorbeeld of een gebruiker binnenkort van plan kan zijn een service op te zeggen.
Met meer mogelijkheden komt meer code, en met meer code meer fouten of bugs. Ai is bovendien nog steeds een nieuwe technologie, die per definitie als minder veilig worden beschouwd. En minder veilige technologieën zijn aantrekkelijk voor cybercriminals. De vraag is hoe en voor hoelang?
Als het echt spannend wordt
Het recente misbruik van ai is nog niet echt angstaanjagend, maar geeft wel aan dat aanvallers steeds dichter bij het punt komen waarop ze ai ten volle kunnen gebruiken om serieus schade aan te richten. Audio-fakes kunnen daar de eerste voorbeelden van zijn. De technologie hiervoor bestaat natuurlijk al, maar is nog niet op grote schaal ingezet voor criminele doeleinden. Dat is een kwestie van tijd.
En dan is het hek van de dam. Een hacker die uw stem nabootst en enkele security-vragen kan beantwoorden bij de bank? Uw baas die lijkt te bellen en cruciale bedrijfsinformatie vraagt? Het zijn slechts twee voorbeelden.
Daar houdt het niet bij op. Deep-fakes gaan in eenvoudige vorm al rond over social media, waarbij niet alleen stemgeluid maar ook beeld wordt gemanipuleerd. Om dit te perfectioneren, heb je complexe software en krachtige computers nodig, en tijd, maar als we iets kunnen leren van het verleden is dat die dingen snel veranderen.
AI staat nog steeds in de kinderschoenen, maar kijk eens wat er nu al mogelijk is. Het is effectief, en verslavend. Daarom hebben we het omarmd. Nu kunnen we niet meer terug. Onze volgende stap moet zijn tools, beveiligingsmodellen en processen ontwerpen die bovengenoemde vormen van ai, en vele andere in veilig vaarwater brengen. Ai moet ons juist helpen, niet in de weg staan.