Driekwart van de Nederlandse werknemers maakt zich zorgen over de inzet van generatieve AI bij het genereren van phishing e-mails waardoor deze vrijwel niet meer van ‘echt’ te onderscheiden zijn. Dat blijkt uit onderzoek van Darktrace, dat is gespecialiseerd in kunstmatige intelligentie voor cybersecurity.
‘Nieuwe’ social engineering-aanvallen maken gebruik van geavanceerde taalkundige technieken, waaronder meer tekstvolume, interpunctie en zinslengte, maar gebruiken geen links of bijlagen. Deze trend suggereert dat generatieve AI, zoals ChatGPT, cybercriminelen een nieuwe manier biedt om snel en op grote schaal geavanceerde en gerichte aanvallen uit te voeren.
De belangrijkste resultaten op basis van het onderzoek waarin de resultaten van 502 Nederlandse respondenten zijn meegenomen:
- 75% is bezorgd dat hackers generatieve AI kunnen gebruiken om phishing e-mails te maken die niet te onderscheiden zijn van valide communicatie.
- De drie belangrijkste kenmerken van communicatie waardoor werknemers denken dat een e-mail een phishingaanval is, zijn: uitgenodigd worden om op een link te klikken of een bijlage te openen (70%), een onbekende afzender of onverwachte inhoud (61%) en slecht gebruik van spelling en grammatica (56%).
- Bijna een kwart (22%) is in het verleden succesvol verleid door een frauduleuze e-mail of sms.
- 63% heeft gemerkt dat er in de afgelopen 6 maanden vaker phishing e-mails en sms-berichten worden verstuurd.
- 77% van de werknemers maakt zich zorgen over de hoeveelheid persoonlijke informatie die online over hen beschikbaar is en die kan worden gebruikt voor phishing e-mails.
- Werknemers zijn gemiddeld 7,7 minuten per week kwijt aan het verwerken van verdachte e-mails die niet door een spamfilter worden tegengehouden.
Niet van echt te onderscheiden
Stel het volgende scenario voor: uw CEO stuurt een e-mail waarin om informatie wordt gevraagd. Het is geschreven in dezelfde taal en tone-of-voice die hij/zij doorgaans gebruikt. In de e-mail wordt zelfs verwezen naar een persoonlijke anekdote of grap. Uit het onderzoek van Darktrace blijkt dat 61% van de Nederlandse werknemers let op slechte spelling en/of grammatica als teken dat een e-mail frauduleus is. Maar deze e-mail bevat geen fouten. De spelling en grammatica zijn perfect, het bevat persoonlijke informatie en is dus erg overtuigend. De e-mail is gemaakt door generatieve AI, met behulp van basisinformatie uit profielen op social media.
De opkomst van ChatGPT heeft AI brede bekendheid gegeven – 31% van de Nederlandse respondenten heeft ChatGPT en/of een andere AI-chatbot geprobeerd. Daarmee zijn er reële zorgen ontstaan over de implicaties voor cyberbeveiliging. Maar liefst 75% van de werknemers maakt zich dan ook zorgen dat hackers generatieve AI kunnen gebruiken om phishing e-mails te maken die niet te onderscheiden zijn van echte berichten.
25% van de respondenten geeft aan dat e-mails van CEO’s of andere senior bedrijfsleiders het op twee na hoogste type phishing e-mail is dat zij ontvangen. Beveiligingsteams nemen het op tegen generatieve AI-aanvallen die taalkundig complex zijn en geheel nieuwe technieken en onderwerpen gebruiken die we nog nooit eerder gezien hebben.
AI om AI te bestrijden
Veel Nederlandse werknemers (33%) hebben wel eens per ongeluk een belangrijke e-mail naar de verkeerde ontvanger gestuurd door het typen van een gelijksoortige alias of de ‘auto aanvul’-functie. Opvallend gaat dit juist vaak fout in de IT- en telecomsector, waar 50% wel eens een e-mail naar de verkeerde ontvanger heeft gestuurd, en in de financiële dienstverlening (48%). Een zelflerend systeem kan deze fout opsporen voordat de potentieel gevoelige informatie bij de verkeerde persoon terechtkomt. Zelflerende AI in e-mail is, in tegenstelling tot andere e-mailbeveilgingstools, niet getraind op hoe ‘slecht’ een e-mail eruit ziet, maar leert in plaats daarvan wat normale patronen zijn. Door te begrijpen wat normaal is, kan het bepalen wat niet thuishoort in de inbox van een individu. E-mailbeveiligingssystemen hebben dit nog vaak fout: 71% van de respondenten zegt dat de spam-/beveiligingsfilters van hun bedrijf ten onrechte legitieme e-mails tegenhoudt.
Max Heinemeyer, Chief Product Officer bij Darktrace: “E-mailbeveiliging vormt al bijna drie decennia een uitdaging voor beveiligingsteams. Er zijn inmiddels veel extra communicatiemiddelen aan ons werk toegevoegd, maar voor de meeste branches blijft e-mail een belangrijk onderdeel van het werk. Als zodanig blijft het een van de handigste tools voor aanvallers die slachtoffers willen verleiden tot het vrijgeven van vertrouwelijke informatie.”
“Al 30 jaar geven beveiligingsteams werknemers training over het herkennen van spelfouten, verdachte links en bijlagen. Echter merken we dat mensen tegenwoordig slechter in staat zijn om de legitimiteit van phishing e-mails te verifiëren. Dit is zorgelijk, zeker in een tijd waarin gemakkelijk beschikbare technologie het mogelijk maakt om snel geloofwaardige, gepersonaliseerde en taalkundig complexe phishing e-mails te maken. Defensieve technologie moet gelijke tred houden met de veranderingen in het e-mail-dreigingslandschap, en dat kan alleen met AI”, besluit Heinemeyer.
Bezoek de website voor het volledige onderzoek.
Darktrace kondigde recent ook de beschikbaarheid aan van een nieuwe upgrade voor Darktrace/Email, dat geavanceerde e-mail-beveiligingsrisico’s stopt door zijn unieke begrip van hoe mensen werken en reageren, in plaats van zich enkel te baseren op eerdere aanvallen. Voor meer informatie over Darktrace/Email, bezoek de website.