Technologie is voor goed en voor kwaad in te zetten. Met generatieve artificiële intelligentie (ai) en grote taalmodellen zoals ChatGPT is dat niet anders.
Volgens beveiliger SentinelOne blijft cybersecurity een kat-en-muisspel tussen aanvallers en verdedigers. Beiden gebruiken ai om hun operaties te automatiseren. De aanvallers zoeken nieuwe manieren om verdedigingslinies te omzeilen, terwijl de verdedigers hen een stap voor proberen te zijn. Het gebruik van ai in malware past in dit klassieke patroon.
Het vormt geen reden om met de ontwikkeling van ai te stoppen. Aan de andere kant is uiterste waakzaamheid geboden, waarschuwt Europol. ChatGPT kan aspirant-criminelen op ideeën brengen. De software helpt lieden die geen enkele kennis van cybercrime hebben, snel op weg. Je hoeft maar een paar vragen te stellen en de tool leert je alle trucjes. Of het nu gaat om inbreken, cybercriminaliteit dan wel terroristische daden, ChatGPT neemt ieder persoon met slechte bedoelingen bij de hand. De tool stroomlijnt hacks, zorgt voor meer nauwkeurigheid en versnelt alles, stelt it-beveiliger Check Point.
Taalvaardig
Criminelen die niet al te taalvaardig zijn, kunnen dankzij deze tool precies de teksten opstellen die tot succesvolle phishing leiden. Vroeger vielen fraudeurs door de mand vanwege hun erbarmelijke Engels. Die tijd is voorbij, waarschuwt Europol. Ook bijvoorbeeld ceo-fraude – oplichting waarbij de crimineel zich voordoet als een hooggeplaatste medewerker – wordt een fluitje van een cent. ChatGPT kan zich precies het taalgebruik van een topmanager eigen maken. Ook heeft de chatbot veel gevoel voor de context waarin zich iets afspeelt.
Met name bedrog waarbij sprake is van social engineering, wordt nu gemakkelijk. Volgens Europol biedt GPT online-fraudeurs kans sneller, authentieker en op veel grotere schaal te opereren. Ook verspreiders van propaganda, nepnieuws en desinformatie gaan deze tool gebruiken.
ChatGPT is in handen van criminelen een gevaarlijke tool. Deze technologie werkt ook in ander opzicht drempelverlagend. ChatGPT kan automatisch code genereren in verschillende programmeertalen. Zelfs criminelen met weinig technische kennis zijn nu in staat malware te ontwikkelen, waarschuwt Check Point. Het beeld dat voormalige tasjesdieven gewapend met ChatGPT op virtuele rooftocht gaan, benauwt Europol.
Kleine stapjes
OpenAI, het bedrijf achter ChatGPT, probeert wel te voorkomen dat ChatGPT malware gaat maken. Maar deze waarborgen werken alleen maar als het model begrijpt wat het aan het doen is. En dat is niet altijd het geval. Volgens Europol is het gemakkelijk veiligheidsmaatregelen te omzeilen door bedenkelijke opdrachten op te delen in kleine stapjes.
Check Point bevestigde medio maart in een eerste security-analyse van GPT4 dat aanvallers ondanks de nieuwe beperkingen zonder veel hinder hun doelen kunnen bereiken. De it-beveiliger deelde vijf scenario’s van mogelijk kwaadaardig gebruik van de chat-robot. Voor phishing-doeleinden kunnen criminelen nu gemakkelijk een bank nabootsen. Ook phishing waarbij de aanvaller e-mails naar werknemers stuurt, is geen enkel probleem.
Een derde bedreiging is C++-malware die pdf-bestanden verzamelt en naar ftp stuurt. Verder stelt ChatGPT criminelen in staat via een php reverse shell computers van slachtoffers binnen te dringen. Een vijfde scenario is het maken van een simpele Java-snippet om Putty, een veel voorkomende ssh- en telnet-client, te downloaden. Deze is vervolgens heimelijk op het systeem uit te voeren met behulp van PowerShell. Dit script is natuurlijk aan te passen om elk programma te downloaden en uit te voeren, inclusief veel voorkomende malware-families.
Hackforums
Check Point signaleerde al in januari de eerste gevallen van cybercriminelen die met ChatGPT kwaadaardige tools ontwikkelen. Amper twee maanden na de eerste test-release van ChatGPT verschenen op hackforums infostealers, coderingstools en andere faciliteiten voor fraude. Vlak na kerst liet een cybercrimineel zien hoe je met ChatGPT malware-families en -technieken kunt nabootsen die worden beschreven in onderzoekpublicaties en artikelen over veel voorkomende malware. Een andere fraudeur demonstreerde hoe hiermee scripts voor een darkweb-marktplaats zijn te maken.
Anderzijds biedt generatieve ai ontwikkelaars ook mogelijkheden om heel snel software te ontwikkelen. Ai-tools hebben eigenschappen van ‘low-code/no-code’. Maar volgens adviesbureau Boston Consulting Group brengt dat het gevaar met zich mee dat bijvoorbeeld marketingmensen met weinig verstand van programmeren onveilige software maken. Ze kunnen overmoedig raken en in hun enthousiasme voorbijgaan aan bepaalde veiligheidsregels.
Volgens het NYU Center for Cybersecurity is veertig procent van de code die ai genereert, gewoonweg onveilig. Omdat de meeste medewerkers in een bedrijf de gevaren niet kunnen overzien, leidt dit tot een behoorlijk veiligheidsrisico. Stanford University constateert dat ook de kwaliteit van de software in het geding is.
Medewerkers moeten geen gevoelige informatie in ChatGPT stoppen want OpenAI slaat alle gegevens op om hun modellen continu mee te trainen. Zelfs Microsoft, de grootste financier van dit ai-bedrijf, waarschuwt zijn personeel geen gevoelige data met ChatGPT te delen.
Tegenwoordig zijn er weinig manieren om dit soort grote taalmodellen te gebruiken zonder gegevens vrij te geven. Een optie voor gegevensprivacy is om het volledige model op locatie of op een speciale server op te slaan. Maar dat is niet voor iedereen weggelegd. Onlangs bleek de chatgeschiedenis bij ChatGPT niet veilig wat tot een storing leidde.
Monster van Frankenstein
Behalve dat GPT in handen van lieden met kwaadaardige bedoelingen een gevaar vormt, bestaat bezorgdheid dat dit soort ai-systemen op hol kunnen slaan. GPT wordt weleens afgeschilderd als een monster van Frankenstein dat zich tegen mens en maatschappij gaat keren. Zelfs ai-systemen die zijn geprogrammeerd om iets goed te bereiken, kunnen desastreuze methoden ontwikkelen om dat doel te halen.
De komst van geavanceerde ai-systemen die mensachtig gedrag vertonen, heeft de angst vergroot. Om die reden hebben al 50.000 mensen waaronder veel ceo’s en ai-wetenschappers een petitie ondertekend om ten minste zes maanden te stoppen met het trainen van de komende generatie ai. Het gaat dan om ai-systemen die krachtiger zijn dan het onlangs gelanceerde GPT-4. Ai-labs en onafhankelijke experts moeten die pauze gebruiken om gedeelde veiligheidsprotocollen voor geavanceerd ai-ontwerp en -ontwikkeling te maken. De naleving hiervan komt onder streng toezicht en strikte controle van onafhankelijke externe deskundigen te staan. Net als dit gebeurt bij menselijk klonen en eugenetica.