‘ChatGPT is een geweldig instrument, ten goede en ten kwade’, zegt Gal Zror, security research group manager bij CyberArk Labs. Het is zijn team gelukt om met de ai-tool kwaadaardige software te schrijven die niet als zodanig herkend wordt door antivirussoftware.
Zror heeft net gesproken over ‘how #ai is making #attackers smarter, faster, and more dangerous’ tijdens de Impact23 World Tour van CyberArk in Artis te Amsterdam. Een eendaagse conferentie van de leider op het gebied van digitale identiteitsbeveiliging. Het bedrijf heeft een uitgebreid beveiligingsaanbod voor elke identiteit – mens of machine – in bedrijfsapplicaties, gedistribueerde werkplekken, hybride cloudworkloads en gedurende de gehele devops-levenscyclus. CyberArk is in 1999 opgericht door Alon N. Cohen en de huidige uitvoerend voorzitter Udi Mokady. Zij stelden een team van beveiligingsengineers samen dat de technologie voor digitale kluizen implementeerde. Sindsdien heeft de onderneming zich gericht op zijn missie om organisaties te voorzien van cyberbeveiligingstools die cyberaanvallen kunnen afslaan. CyberArk is actief in meer dan vijftien landen, het hoofdkantoor staat in Newton, Massachusetts.
Zror, zo vertelt hij tussen de bedrijven door, is minder gericht op de producten van CyberArk. ‘Wij onderzoeken in zijn algemeenheid welke aanvallen plaatsvinden, brengen kwetsbaarheden in kaart en definiëren oplossingen. Dat doen we door innovatie. Welke nieuwe eigenschappen zijn nodig om jezelf te weer te stellen. Deze kennis delen we met onze collega’s. Overigens niet alleen met hen, maar met iedereen die het wil weten. Wij publiceren onze inzichten en geven weer wat de impact is van nieuwe ontwikkelingen. Bijvoorbeeld over onze bevindingen dat ChatGPT in staat is polymorfe malware te produceren.’ En als derde aandachtspunt heeft zijn onderzoeksgroep de producten van CyberArk te beveiligen.
Nieuw tijdperk
Zror onderzocht hoe ChatGPT is in te zetten om kwaadaardige code te schrijven. Ondanks de regels die OpenAI stelt om de dienst geen wetten te laten overtreden, bleek het toch vrij makkelijk om die beperking te omzeilen. ‘Generatieve ai brengt ons in een nieuw tijdperk, we leven in een interessante tijd.’
De onderzoekers merkten dat het mogelijk is een heel lichte agent te (laten) bouwen die zich op een computer of in een netwerk kan nestelen zonder dat de huidige afweersystemen dit in de gaten hebben. In deze blog wordt uitgelegd hoe zij ChatGPT konden verleiden iets te doen wat hem eigenlijk is verboden.
Vervolgens is het gelukt om de kunstmatige intelligentie te gebruiken om de gecreëerde code zichzelf te laten veranderen; keer op keer. Zo ontstond polymorfe malware: een type kwaadaardige code die constant zijn eigenschappen verandert om ontdekking te voorkomen.
Vooruitdenken
‘Zoals we hebben gezien, brengt het gebruik van ChatGPT’s api binnen malware aanzienlijke uitdagingen voor beveiligingsprofessionals met zich mee. Het is belangrijk om te onthouden dat dit niet slechts een hypothetisch scenario is, maar een reële zorg. Dit is een gebied dat voortdurend in ontwikkeling is en daarom is het essentieel om alert te blijven’, meldt Eran Shimony, één van de leden van Zrors team.
Zror geeft aan dat je moet blijven nadenken over wat de volgende ontwikkeling is. ‘Wat gebeurt er over twee jaar? Wij willen vooruitdenken. We hebben met ons onderzoek alleen maar willen aantonen dat gen-ai het speelveld opschudt. Wij hebben natuurlijk de kwaadaardige code die we met ChatGPT konden maken niet gepubliceerd; wij zullen nooit malware publiceren. Onze boodschap: het is reëel, dus richt je pijlen op deze nieuwe uitdagingen.’ Hij antwoordt dat hij (nog) geen polymorfe malware in het wild is tegengekomen. ‘Maar het is onwaarschijnlijk dat de bedrijven die malware produceren geen gen-ai zullen gebruiken. Zoek daarom naar oplossingen om dergelijke kwaadaardige code toch te vangen.’
De black mamba is Afrika’s giftigste en snelste slang. Een goed gekozen naam voor de polymorfe malware die onderzoekers van securitysoftwarebedrijf Hyas in maart ontwikkelden en eveneens door ChatGPT in de luren te leggen. ‘Het is duidelijk dat gen-ai nieuwe risico’s in het leven roept’, onderstreept Zror. ‘We moeten er als industrie alles aan doen om dit nieuwe gevaar te beperken. Onder meer door gen-ai te gebruiken om securitytools beter te maken. Wij doen dat in elk geval. Om modellen te ontwikkelen die toch in staat zijn polymorfe malware te ontdekken en onschadelijk te maken.’
Het antwoord
Het concept om polymorfe malware te maken met ChatGPT lijkt misschien ontmoedigend, maar in werkelijkheid is de implementatie relatief eenvoudig, aldus CyberArk. Door gebruik te maken van de mogelijkheid van ChatGPT om verschillende persistentie-technieken, Anti-VM-modules en andere schadelijke payloads te genereren, zijn de mogelijkheden voor het ontwikkelen van malware enorm. ‘Hoewel we niet zijn ingegaan op de details van de communicatie met de command & control (c&c)-server, zijn er verschillende manieren waarop dit discreet kan gebeuren zonder argwaan te wekken. In de toekomst zullen we dit verder uitbreiden en uitwerken, en we streven er ook naar om een deel van de broncode vrij te geven voor leerdoeleinden’, meldt Gal Zror.
Een c&c-server is een computer die opdrachten geeft aan digitale apparaten die zijn geïnfecteerd met rootkits, of andere soorten malware. Dergelijke servers worden ingezet om ddos-aanvallen uit te voeren of gegevens te stelen. Het is dus zaak om hun criminele voornemens tijdig te kunnen blokkeren.