Large Language Models (LLM’s) of grote taalmodellen vormen een toenemende dreiging voor de cyberveiligheid. Criminelen misbruiken de modellen, die oorspronkelijk zijn ontwikkeld voor natuurlijke taalverwerking en communicatie, voor geavanceerde en moeilijk te detecteren cyberaanvallen. Daarvoor waarschuwen onderzoekers van TNO en het Nationaal Cyber Security Centrum (NCSC).
Het NCSC liet TNO uitzoeken welke gevolgen LLM’s hebben op het cyberdreigingslandschap, hoe je deze gevolgen meetbaar maakt en de komende drie tot vijf jaar in de gaten kunt houden. Hiervoor gebruikten de onderzoekers eerdere studies en Mitre Att&ck, een kennisbank met informatie over technieken en tactieken van cybercriminelen. De kennisbank is ingedeeld naar veertien tactieken met elk meerdere technieken, waarvan sommige zich lenen voor de toepassing van LLM’s.
Een Large Language Model is een geavanceerd ai-systeem dat is getraind op enorme hoeveelheden tekstdata om menselijke taal te begrijpen, genereren en interpreteren.
De onderzoekers identificeren drie technieken die cybercriminelen bij uitstek kunnen versterken met behulp van zulke taalmodellen. De eerste techniek is het injecteren van gemanipuleerde berichten op de server, zodat de gebruiker op het verkeerde been wordt gezet. Met LLM’s kunnen de criminelen zulke berichten veel sneller en efficiënter maken. De tweede techniek is het op kwetsbaarheden scannen van online-applicaties. Ook dit proces kan met een LLM versnellen.
Spearphishing
Maar het zijn vooral phishingaanvallen waarover de onderzoekers zich zorgen maken. Criminelen kunnen de Large Language Models gemakkelijk misbruiken om in korte tijd zeer persoonlijke, realistische en vertrouwenwekkende e-mails te genereren. Dit zogeheten spearphishing vergroot niet alleen de effectiviteit van de aanvallen, maar ook de schaal en snelheid waarmee ze worden uitgevoerd. Bovendien wordt het voor cybercriminelen gemakkelijker om met ai stemmen realistisch na te bootsen en daarmee mensen te misleiden.
De inzet van LLM’s vormt de komende tijd een grote uitdaging voor de cybersecurity, concluderen de onderzoekers. Dit zou zich uiten in zes trends in het gebruik van grote taalmodellen die aanvallers in de nabije toekomst zouden kunnen benutten:
- Imitatie/personalisatie voor betere phishing en social engineering op schaal.
- Genereren van (kwaadaardige) code en tools door mensen zonder technische kennis.
- Gebruik van informatie opgeslagen in een LLM voor de beïnvloeding van besluitvorming.
- Geautomatiseerde uitbuiting van kwetsbaarheden.
- Het vinden van kwetsbaarheden in bijvoorbeeld code, logbestanden en configuratiebestanden.
- Misleidende of schadelijke input verstrekken aan andere, minder geavanceerde LLM’s.
Het rapport ‘The future of cyber attacks with Large Language Models’ is hier te vinden.