BLOG – Met de toename van ai-oplossingen binnen bedrijven groeit ook het aanvalsoppervlak voor ai-systemen. Tegelijkertijd hebben kwaadwillenden geavanceerde ai-tools tot hun beschikking. Overheden, regionale wetgevers en de private sector erkennen deze bedreigingen en nemen ze steeds serieuzer.
Op het Aspen Security Forum lanceerde een groep toonaangevende techbedrijven de Coalition for Secure ai (CoSai). Deze coalitie richt zich op het aanpakken van cruciale ai-beveiligingsvraagstukken, zoals het beveiligen van de software supply chain van ai-systemen, het voorbereiden van beveiligers op een veranderend dreigingslandschap en het bevorderen van ai-risicobeleid. Nu hackers ai inzetten bij phishingmails en ‘deepfake’-aanvallen, is de noodzaak van solide ai-beveiliging groter dan ooit.
Een experiment van het Singaporese Government Technology Agency (GovTech) laat zien dat ai-gegenereerde phishingmails effectiever waren dan handgeschreven e-mails. Verder werd een financieel medewerker van een multinational tijdens een videoconferentie vorig jaar misleid om 25 miljoen dollar over te maken aan fraudeurs. Zij maakten gebruik van deepfakes om zich voor te doen als de financieel directeur van het bedrijf.
Beide situaties onderstrepen het gevaar van door ai aangedreven cyberdreigingen. De lancering van CoSai is dan ook welkom.
Uitdagingen in de software supply chain van ai
Een belangrijke werkstromen waar CoSai zich op zal richten is het beveiligen van de supply chain voor ai-systemen. Deze omvat de gehele levenscyclus van ai-systemen, van dataverzameling en modeltraining tot inzet en onderhoud. Door de complexiteit en onderlinge verbondenheid van dit ecosysteem kunnen kwetsbaarheden in elke fase het hele systeem beïnvloeden.
Ai-systemen maken vaak gebruik van externe bibliotheken, frameworks en componenten. Hoewel dit een snellere ontwikkeling in de hand werkt, brengt het ook kwetsbaarheden met zich mee. Daarom is het essentieel om geautomatiseerde tools in te zetten die regelmatig de beveiligingsrisico’s van bijvoorbeeld deze externe bibliotheken controleren en aanpakken.
Daarnaast vraagt de brede beschikbaarheid van llm’s om een solide tracering van herkomst om de oorsprong en integriteit van zowel de modellen als de datasets te verifiëren. Geautomatiseerde beveiligingstools zijn noodzakelijk om deze modellen en datasets te controleren op kwetsbaarheden en malware. Llm’s op het apparaat bieden een betere gegevensbeveiliging omdat de berekeningen op het apparaat worden uitgevoerd zonder dat er een verbinding met de cloud nodig is.
Anonimiteit
Als we kijken naar closed source, kan de eigendomsrechtelijke aard van het model veiligheid bieden door anonimiteit. Het maakt het voor kwaadwillenden namelijk lastiger om kwetsbaarheden uit te buiten. Het betekent echter ook dat het identificeren en aanpakken van beveiligingsproblemen een langdurig proces kan zijn.
Open source biedt winst op het gebied van beveiliging door de gezamenlijke inspanningen van de ontwikkelgemeenschap. Het toeziend oog van velen op de code vergemakkelijkt de snelle opsporing en oplossing van zwakke plekken in de beveiliging. Desalniettemin kan het openbaar maken van de code potentiële zwakke plekken blootleggen.
Ai-risico’s en beveiligingsmaatregelen
CoSai’s focus op ai-beveiligingsbeleid is actueel. Zo heeft het National Institute of Science and Technology een document gepubliceerd waarin vier soorten aanvallen op machine learning worden beschreven. Deze omvatten: data poisoning, misbruik van gegevens, aanvallen op privacy en ontwijkingsaanvallen tegen voorspellende en generatieve ai-systemen.
Ook de Europese ai-wet legt nadruk op cybersecuritymaatregelen om aanvallen te voorkomen, detecteren, beantwoorden, oplossen en monitoren. Het gaat hierbij over het manipuleren van trainingsdata (data poisoning), het compromitteren van vooraf getrainde componenten die tijdens het trainingsproces worden gebruikt (model poisoning) en het invoeren van specifieke inputs die ontworpen zijn om het ai-model fouten te laten maken (adversarial examples of model evasion). Daarnaast omvat het aanvallen op de vertrouwelijkheid van het model (gevoelige data waarmee getraind is) of het misbruik van gebreken bij het model.
Bedrijven kunnen hun expertise delen door deel te nemen aan het regelgevingsproces en door onderzoek uit te voeren in samenwerking met klanten, partners, brancheverenigingen en onderzoeksinstellingen. Hun wederzijdse inzet voor innovatie vereist dat ai veilig is.
Standaardbibliotheek
Het effectief beheren van ai-beveiliging vereist gespecialiseerde middelen om de unieke uitdagingen en risico’s die gepaard gaan met ai aan te pakken. Het opstellen van een standaardbibliotheek voor het in kaart brengen van risico’s en beheersmaatregelen helpt om consistente ai-beveiligingsnormen in de hele sector te waarborgen. Bovendien kunnen organisaties hun ai-beveiligingsmaatregelen toetsen met behulp van een checklist voor de beoordeling van de volwassenheid van ai-beveiliging en een gestandaardiseerd scoresysteem. Dit proces geeft klanten vertrouwen in de veiligheid van ai-producten. Deze aanpak is vergelijkbaar met de bestaande software development lifecycle-praktijken) voor veilige softwareontwikkeling, waarbij beoordelingen plaatsvinden op basis van het Software Assurance Maturity Model (SAMM). Producten en oplossingen zijn vervolgens te gebruiken in toepassingen die organisaties helpen om te voldoen aan HIPAA, PCI-DSS en GDPR, FIPS-140-validatie en Common Criteria op producten. Organisaties zouden gebruik moeten maken van de ai-enablers, software developmentkits, api’s en ontwikkelaarstools van hun technologiepartners om eenvoudig en snel veilige, schaalbare digitale diensten te bouwen.
Netwerkrand
Techbedrijven kunnen zich inzetten voor het ontwikkelen van veilige ai-oplossingen die de productiviteit van werknemers verhogen en de implementatie aan de netwerkrand verbeteren. Dit is te bereiken door meerdere beschermingslagen te integreren en prioriteit te geven aan beveiliging die eenvoudig te implementeren is, zonder de prestaties te belemmeren. Net zoals bedrijven dat doen voor cybersecurity en andere initiatieven die bedrijfsbrede coördinatie vereisen, moeten ze doorgaan met het ontwikkelen van ai-processen, -principes, -tools en -training. Tegelijkertijd is het belangrijk om te zorgen voor consistentie en naleving door middel van een intern hub-and-spoke-beleid.
Srikrishna Shankavaram is hoofd cybersecurityarchitect en cto office bij Zebra Technologies