BLOG – Als je vertrouwelijke gegevens in ChatGPT plaatst, staan die mogelijk bloot aan iedereen die het model in de toekomst gebruikt. OpenAI vermeldt zelf dat je geen gevoelige data moet delen, omdat ze specifieke prompts niet uit de gebruiksgeschiedenis kunnen verwijderen. De voordelen van ai spreken voor zich, maar hoe bescherm je als bedrijf intellectueel eigendom?
Om dat te doen bouwen veel bedrijven hun eigen ai-modellen, die ze hosten op privé-infrastructuur en gebruiken ze eigen datasets om ze te trainen. Hoe bouw je een sterke private ai-strategie? Zo dus:
- Zijn jij en private ai een match?
Niet alle bedrijven zijn succesvol met private ai, vooral niet als ze geen plan hebben. Voor bedrijven in streng gereguleerde sectoren zoals de gezondheidszorg en financiële dienstverlening zijn de voordelen van private ai evident. Maar ook bedrijven in andere sectoren (met minder regelgeving) kunnen hun voordeel doen met private ai. Zowel het risico op het lekken van gegevens als de kosten- en flexibiliteitseffecten van het gebruik van ai op publieke infrastructuur gelden hier ook.
Sommigen neigen naar de publieke cloud als een gemakkelijke en kosteneffectieve manier om de schaalbare computerinfrastructuur te krijgen voor ai-modellen. Toegang krijgen tot rekenkracht in de publieke cloud blijkt vaak duurder en moeilijker dan verwacht, grotendeels vanwege hoge egress-kosten.
- Gegevensbeheer in je strategie is een must
De kwaliteit van je ai-modellen wordt bepaald door de kwaliteit van de data die je aanlevert. Daarom is effectief gegevensbeheer essentieel voor het behalen van succes met private ai. Het kan lastig zijn de juiste gegevens op de juiste plaats te krijgen, omdat ai-infrastructuur van nature sterk gedistribueerd is. Zo doe je dat:
- Verzamel data van al je applicaties die waarschijnlijk in een hybride multicloud-architectuur staan – om je modellen te trainen;
- Implementeer inferentie-workloads aan de digital edge (ofwel, op de locaties waar eindgebruikers interacteren met de ai-modellen) om de nabijheid tussen databronnen en verwerkingslocaties te garanderen. Essentieel, want inferentie-workloads zijn gevoelig voor latency, en afstand is de belangrijkste factor voor netwerk latency;
- Implementeer trainingsworkloads op kerninfrastructuur, want deze workloads vereisen enorme rekenkracht;
- Plaats flexibele, hoogwaardige netwerken tussen al je verschillende workloads, zodat data snel en betrouwbaar zijn te verplaatsen van de bron naar verschillende verwerkingslocaties.
Wie de data-architectuur ai-proof wil maken, heeft opslag nodig naast de cloud (cloud adjacent storage). Zo kun je publieke cloudservices integreren in je private-ai-strategie en de potentiële als risico’s, kosten en complexiteit verminderen. Dat is een win-win voor je ai-infrastructuur: je bent dicht genoeg bij de cloud om toegang te hebben tot services wanneer je ze nodig hebt, maar je kunt ook je eigen opslagomgeving gescheiden houden van de cloud.
Zo heb je volledige controle over je data, om ze te gebruiken wanneer en hoe je wilt, zonder zorgen over lekrisico’s via een publiek ai-model, of dat je vastzit aan een bepaalde cloud. Dat niveau van gegevenscontrole biedt een slimme private-ai-strategie.
- Wat zijn je rekeneisen?
De explosieve groei van ai heeft geleid tot een toenemende vraag naar krachtige gpu-hardware. Fabrikanten werken hard om aan deze vraag te voldoen, maar toch verwachten we tekorten. Een beperkte beschikbaarheid van hardware kan ervoor zorgen dat je je private ai-doelen niet volledig kunt realiseren. Toch, er zijn manieren om voldoende rekencapaciteit te krijgen.
Veel mensen beschouwen ‘gpu’s’ als synoniem voor ‘ai-hardware’, maar dit is niet per se waar. Hoewel je gpu’s nodig hebt om je meest veeleisende trainingsworkloads te ondersteunen, kun je ook gebruik maken van direct beschikbare cpu’s voor je kleinere inferentie workloads. Sterker, je zou zelfs een bare-metal-as-a-service-oplossing kunnen gebruiken om je te helpen de benodigde cpu’s on demand in te zetten, zonder hoge initiële kosten.
- Duurzaamheid en efficiëntie gaan hand in hand
We maken ons zorgen dat ai een dreiging vormt voor duurzaamheidsdoelen. Het is waar dat ai-workloads – en met name trainingsworkloads – energie-intensief kunnen zijn. Om de koolstof-impact hiervan te beperken, moet je ze zo efficiënt mogelijk draaien.
Zo is vloeistofkoeling voor datacenters van nature efficiënter dan traditionele luchtkoeling. Het speelt een essentiële rol bij het koelen van hoge-density workloads zoals ai op een energiezuinige manier. Je wilt je workloads plaatsen op locaties waar ze de minst koolstof-intensieve energie kunnen gebruiken van het lokale elektriciteitsnet. Een manier om dit te bereiken, is door samen te werken met een digitale infrastructuurpartner die heeft geïnvesteerd in hernieuwbare energie.
Ai heeft veel te bieden, maar kan een risico vormen als je geen gedegen plan hebt. Houd bij het vormgeven van je private-ai-strategie bovenstaande punten in gedachten, en pluk – zonder pottenkijkers – de vruchten van (private) ai.
Milind Wagle is chief information officer bij Equinix
Eerste vraag in inleiding gaat om wat is intellectueel eigendom omdat er aangaande bedrijfsspionage een leuk schrijven van onze eigen AIVD is. Privacy gaat namelijk niet om intellectuele eigendommen maar om bedrijfsgeheimen die volgens de AIVD ook om de kennis van processen gaat. Zeg maar het geheim van de keuken wat je mogelijk moet openbaren als het om de privacy gaat want er is nu veel ophef over AI in beslissingsprocessen die oneigenlijk profileren. De juridische kant van doelgerechtigd en doelmatig gaat dan ook niet om de plaatsing van een workload maar de rechtmatigheid van een landing van de data. En hernieuwbare energie is geen issue door een overschot hieraan tijdens zonnige dagen waardoor je een model prima kunt trainen op locatie.