Cybercriminelen zullen in de toekomst vaker ai inzetten voor hun activiteiten. Dat voorspelt een rapport van beveiliger Trend Micro, Europol en het United Nations Interregional Crime and Justice Research Institute (UNICRI). De mogelijkheden van ai bieden hun immers heel wat mogelijkheden om op ongeoorloofde wijze geld te verdienen.
Ai brengt meer efficiëntie, automatisering en autonomie, maar cybercriminelen ontwikkelen ook steeds vaker manier om ai in te zetten voor duistere praktijken. Deepfakes zijn momenteel het bekendste gebruik van ai als aanvalsvector. Er zal in de toekomst ook nieuwe screeningtechnologie nodig zijn om het risico op misleidende campagnes en afpersing met deepfakes te beperken.
Daarnaast zullen er meer bedreigingen komen die specifiek op ai gebaseerd zijn. Ai zou bijvoorbeeld kunnen worden gebruikt voor social engineering-aanvallen op grote schaal. Of voor document scraping-malware om aanvallen efficiënter te maken. Het kan ook ingezet worden voor het omzeilen van beeldherkenning en spraakbiometrie. Ransomware-aanvallen kunnen beter en efficiënter getarget worden. Tot slot is er ook het fenomeen ‘data pollution’. Hackers ‘vervuilen’ daarbij databases door het identificeren van de blinde vlekken in de detectieregels.
Early adopters
Het rapport waarschuwt tevens dat ai-systemen worden ingezet om de efficiëntie van bestaande malware te vergroten en om anti-malwareoplossingen en beveiligingssystemen te verstoren. ‘Cybercriminelen zijn altijd al ‘early adopters’ geweest van nieuwe technologieën. En dat is met ai niet anders. Zoals dit rapport laat zien, wordt ai al ingezet om wachtwoorden te raden, Captcha’s te decoderen of stemmen na te bootsen. Er zijn nog veel andere kwaadaardige innovaties waarbij cybercriminelen ai inzetten’, zegt Martin Roesler, hoofd van Future Threat Research bij Trend Micro.
Het volledige rapport is hier te downloaden.