Het bedrijfsleven is in de ban van ai. Organisaties moeten echter voorzichtig te werk gaan. Want in de haast om ai-technologie in alle soorten en maten toe te passen, lopen ze het risico om op beveiligingsgebied steken te laten vallen. Veel nieuwe ai-tools maken namelijk gebruik van opensource-infrastructuren en -data repositories, en die vragen mogelijk om een totaal andere beveiligingsstrategie dan niet-open tools.
In bijna elke directiekamer wordt druk overlegd hoe de nieuwe technologie is in te zetten, werknemers downloaden massaal ai-applicaties om te kijken hoe die hen kunnen helpen met het automatiseren van routinetaken, en interne developers stropen ondertussen internet af naar de data-libraries om in te zetten als basis voor hun eigen ai-oplossingen.
Voor cio’s ciso’s en andere it-besluitvormers is het belangrijker dan ooit om een proces in het leven te roepen dat het security-team in staat stelt om de data-libraries en platforms waarop veel van deze ai-oplossingen zijn gebaseerd, te testen en te valideren.
Gratis uitproberen
Met een simpele zoekopdracht in Google kun je voor zo’n beetje elke zakelijke taak een door ai ondersteunde oplossing vinden. Een aantal van deze oplossingen kun je gratis uitproberen, in andere gevallen moet je eerst je creditcardgegevens invoeren. Vervolgens kun je in no time met de volledige softwareoplossing aan de slag gaan. ChatGPT is hier vanzelfsprekend het bekende voorbeeld van, maar er zijn ook gratis video- en afbeeldingeditors, customer service bots en zelfs voice-generators
Schaduw-it, het gebruik van applicaties en apparaten door werknemers zonder dat hun werkgever hiervan op de hoogte is, is al jaar en dag een doorn in het oog van ciso’s en cio’s. Ai kan dit probleem mogelijk verergeren. Want in tegenstelling tot de grote softwarepakketten die organisaties gebruiken, zijn AI-tools steeds vaker op een open source-architectuur gebaseerd.
Als gevolg van de stortvloed aan open source-oplossingen van de afgelopen jaren zijn er legio data libraries op het internet te vinden. Die nemen alleen maar in aantal toe nu bedrijven als OpenAI hun eigen datasets uitbrengen, zodat developers die als basis voor hun oplossingen kunnen inzetten.
Open source is een krachtig instrument, maar er zijn wel risico’s aan verbonden. Zoals eerder benoemd richten sommige cybercriminelen hun pijlen op open platforms. Bij de hack bij SolarWinds van een paar jaar geleden kregen de aanvallers toegang tot de datanetwerken van duizenden klanten van het bedrijf. Dit laat zien hoeveel schade data supply chain-aanvallen kunnen aanrichten en is een reden dat er vanuit beveiligingsoogpunt grote zorgen zijn over de AI-goudkoorts. Want hoe meer open AI-platforms worden gebruikt, hoe meer een bedrijf het risico loopt om getroffen te worden door een mogelijk catastrofale cyberaanval via hun technologische toevoerketen.
Het goede nieuws is dat besluitvormers op security-gebied een aantal maatregelen kunnen treffen om open source-tools voortdurend te controleren op de aanwezigheid van kwetsbaarheden.
Huiswerk
Het is belangrijker dan ooit voor bedrijven om hun huiswerk te doen en het aanbod van elke it-dienstverlener grondig te inspecteren. Daarnaast is het zaak dat ciso’s en hun teams constant zicht hebben op de tools die werknemers – proberen te – gebruiken.
Voor securityteams is samenwerking met hun collega’s van het development-team daarom alleen maar belangrijker geworden om de kwaliteit van de oplossingen van beoogde leveranciers te beoordelen. Ze moeten daarnaast vaststellen welke beveiligingsprotocollen worden gebruikt om opensource-libraries te beschermen.
Zodra het interne it-team weet welke data repositories veilig zijn, kan het beginnen met het opstellen van richtlijnen. Aan de hand daarvan kunnen werknemers goedgekeurde applicaties downloaden of data-libraries gebruiken.
Scorekaarten
Richtlijnen moeten echter geen vrijbrief vormen voor werknemers om halsoverkop elke beschikbare tool uit te proberen. Het blijft belangrijk dat zij en het securityteam de zakelijke waarde van de software afwegen tegen de mogelijke risico’s.
Scorekaarten voor leveranciers kunnen een rol spelen bij het beoordelen van potentiële risico’s. Bedrijven die de tijd nemen voor een vergelijkende analyse van ai-oplossingen kunnen die inzetten om te bepalen met welke leverancier ze in zee kunnen gaan.
Deze vorm van benchmarking is vaak al een standaardpraktijk voor it-teams. Met de opkomst van ai ontstaat echter een compleet nieuw opensource-ecosysteem van potentiële leveranciers en partners dat om gedegen beheer vraagt. Bedrijven doen er goed aan om vragen te stellen als:
- Welke ontwikkelingsmethodiek heeft de leverancier gebruikt?
- Heeft de leverancier de code voldoende geanalyseerd?
- Hanteert de leverancier een dynamisch scanproces dat helpt met de detectie van onregelmatigheden?
- Welk proces hanteert de leverancier voor het verhelpen van eventueel geconstateerde kwetsbaarheden?
- Beschikt de leverancier over systemen die inzicht bieden in de gevolgen van een supply chain-aanval voor zijn oplossing?
Zodra dit proces is voltooid, is het werk nog niet gedaan. Naarmate er binnen de organisatie meer opensource-tools worden ingezet, is het essentieel dat securityteams de applicaties voortdurend monitoren op onbekende code of op een potentieel beveiligingslek.
Grappig genoeg kan ai daar een handje bij helpen, aangezien securityteams daarmee een belangrijk deel van de dagelijkse monitoring kunnen automatiseren. Zij kunnen op die manier meer tijd besteden aan de beveiliging van geavanceerde ai-oplossingen.
Hype
De opwinding rondom ai is begrijpelijk, maar het is daarmee niet minder belangrijk dat bedrijven door de hype heen prikken en inzicht verwerven in de werkelijke waarde en risico’s van ai-oplossingen. Met name de explosie van opensource-ai-oplossingen vraagt om grondige analyse. Doen organisaties die niet, dan bestaat de kans dat hun systemen worden meegesleurd door een golf van opportunistische hackers die de stand van de ai-trend wél scherp in het vizier hebben.
“dat hun systemen worden meegesleurd door een golf van opportunistische hackers”.
Gemiste kans om hier het woord tsunami niet te gebruiken.
Het blijft bij “stortvloed aan open source-oplossingen”. Dat klinkt ook wel eng. En vergeet “catastrofale cyberaanval” met explosie niet.
Over opportunistisch gesproken.. die commvault country manager.
Gelukkig is commvault niet opensource, dus moet het wel veilig zijn 🙂
Net als Solarwinds, trouwens… dat weer niet een open platform is.
Weet al niet meer waar het over ging, maar belangrijkste is dat het nu alweer weekend is.
Ik heb wel wat aanmerkingen en vragen bij dit artikel.
Ik zie geen enkel argument of voorbeeld over waarom AI nu een bedreiging en risico is, of wat het überhaupt is.
Dan wordt SolarWinds erbij gehaald in de context van open source. SolarWinds is geen open source.
Daarnaast wordt de suggestie gewekt dat er dingen verkeerd zijn aan open source of dat de veiligheid van open source heel anders is dan closed source. Ook wordt open source in hele rare contexten geplaatst en dit is een voorbeeld:
“Want in tegenstelling tot de grote softwarepakketten die organisaties gebruiken, zijn AI-tools steeds vaker op een open source-architectuur gebaseerd.”
Wat is een open-source architectuur? En wat zijn daar voorbeelden van? Open source in AI is juiste een minderheid met verrassend Meta die een mooie AI tool als (semi) open source aanbiedt: LLama2. Semi, want hele grote bedrijven mogen het niet commercialiseren en dat is tegen de GLU principes.
Het mooie van open source is juist dat veel mensen kwetsbaarheden kunnen vinden, bij propriety software is dat een black-box.
Daarnaast, en dit is wel relevant, biedt open source AI LLM’s juist de mogelijkheid om een AI toe te passen binnen je eigen netwerk zonder dat jouw data afstaat aan andere organisaties. Iets wat een zeer relevant detail is in het kader van informatie beveiliging.
Kortom. er is van alles mis met dit artikel. Wie heeft belang bij de boodschap?
Ook de opsomming lijkt zich te verbinden met open source terwijl de punten gelden voor alle software leveranciers.
De vraag over wat is echt en wat niet geeft een idee over de risico’s van AI. Zo kun je met video- en afbeeldingeditors Henri in een scene plakken die de goede zeden te buiten gaat. Misschien gaat het verhaal niet zo zeer om de supply chain maar om de Chain of Custody doordat de opsomming meer om de governance lijkt te gaan dan de code. Open sores of open source zijn het niet alleen criminelen die op de golf van opportunisme surfen. Want ook al staat Kafka niet op de literatuurlijst van (amateur)filosoof er is steeds meer discussie in directiekamers over een verantwoordelijk gebruik van AI door zoiets als bewijs uit het ongerijmde.
Andere denkfout in de reactie over open source gaat om de voorwaarden van gebruik, oude GPL licentie kent mede door de cloud vele variaties want zelfs Dino met zijn gebruikelijke ad hominem moest toegeven dat niet alle code vrijelijk te lezen of aan te passen is. In de discussie over alle Trojaanse paarden van ‘gratis’ heeft Henri altijd een selectief geheugen gehad maar gelukkig hebben we de data nog. De onzin over het vinden van kwetsbaarheden in open source gaat voorbij aan het feit dat 99,99% van de gebruikers vooral voor gratis gaat. Ik herinner me in eerdere discussies dan ook iets over het bekijken van het netwerkverkeer.
Niks mooier dan elkaar op dit forum on-topic aanvallen als het om de bal op de stip leggen gaat want ik had dus interessante discussies op Commvault Connect dag in het Louwman museum dit jaar. Wat betreft gemiste kansen ging één daarvan om de Chain of Custody doordat ook opsporingsdiensten steeds meer gebruik van AI gaan maken, Big Brother wordt Smart Sister. Want alle oude koeien over datasynthese wijs ik op een gelijkenis tussen Dino en Henri, de ingewijden weten wat ik bedoel doordat Abraham weet waar de mosterd is te vinden.
Henri en ik ons af waarom juist opensource een gevaar zou vormen.
Dat vragen we, omdat het niet uit het artikel blijkt.
Nogmaals, het checken van netwerkverkeer is een extra controle voor het gedrag van software. Omdat miljoen regels code lezen net zo langweilig duurt als Heidegger, op zn spectaculaire naziverleden na dan (bron wikipedia).
Democratie trouwens maar afschaffen omdat 99.99% van de kiezers het verkiezingsprogramma het eigenbelang voorop stelt maar toch het verkiezingsprogramma niet leest ?
Achterkamertjes politiek met schimmige lobbyisten als oplossing ?
https://tweakers.net/nieuws/209222/solarwinds-hack-was-ruim-half-jaar-eerder-bekend-bij-amerikaans-ministerie.html
Dino beantwoord zijn eigen vraag want in een andere beleving van de waarheid over het KUNNEN controleren van de code en het gedaan hebben ligt er een risico van aanname. Tenslotte is een opmerkelijk risico bij open source de financiële ondersteuning, scheidslijn tussen open source en open standaard is interessanter dan een semantische discussie over het kunnen als je uiteindelijk de resources niet hebt om het te doen. Nu kan AI helpen bij de refactoring van code zodat deze leesbaarder en daarmee makkelijker onderhoudbaarder is want het is soms net spaghetti. Verder is er is nog zoiets als documentatie welke de code begrijpbaar maakt, het commentaar in de code is vaak net als de reacties van Dino.
Maar AI kan ook helpen bij cybersecurity door code blokken te blokkeren als deze kwade intenties hebben, vooral interessant bij illegale benadering van het geheugen of verdachte communicatie. Want er is – met dank aan Dino voor de link – een sandbox waar de machine learning helpt in de 0-day dectectie. Een dynamische analyse van code in een gecontroleerde omgeving werkt echter niet als hackers geleerd hebben van de sjoemelsoftware in de autoindustrie want hoewel de opinie niet aan de verwachtingen van Dino en Henri voldoet zitten er kapstokken in doordat het risico van te weinig resource om alles veilig en functioneel te houden natuurlijk alle code geldt maar zoals gezegd kun je met applaus de rekening niet betalen want goedkoper dan gratis wordt het niet.