BLOG – Ai en machine learning bieden interessante innovatiemogelijkheden voor bedrijven, van voorspellende analyses tot op mensen lijkende conversatie-interfaces voor functies zoals klantenservice. Maar ondanks het potentieel van deze tools – onderzoek van Deloitte laat zien dat circa driekwart van de bedrijven bezig is met het testen van ai-technologieën – zijn veel bedrijven niet voorbereid om de mogelijkheden van ai volledig te benutten. Oorzaak: geen geprioriteerde datastrategie.
Waar ongestructureerde data meestal meer dan tachtig procent uitmaken van de data van een bedrijf, worden data in silo’s onderbenut en na verloop van tijd moeilijker te vinden. Het is, in de woorden van analist Gartner, ‘dark data’. Olie- en gasbedrijven kunnen bijvoorbeeld hun upstream-activiteiten efficiënter maken door ongelijksoortige seismische gegevensbronnen te consolideren en beter te analyseren. Fabrikanten kunnen hun processen stroomlijnen door de toegankelijkheid van design files, voorraden en kwaliteitsgegevens te verbeteren. En mediabedrijven transformeren hun content-opties door een enkel overzicht te krijgen van afbeeldingen, video, afbeeldingen en post-productionbestanden.
Het samenbrengen van ongestructureerde data in één toegankelijke bron is een van de belemmeringen voor bedrijven om ai effectief te kunnen gebruiken. Onderzoek van Mulesoft en Deloitte Digital geeft aan dat vier op de vijf onderzochte bedrijven denkt dat dit een remmende werking heeft. Door data te consolideren, kunnen allerlei organisaties cruciale operationele en concurrentievoordelen behalen, zoals:
- Dark data zichtbaar maken voor analyse- en ai-tools;
- Een enkele bron van waarheid uit ongestructureerde data halen;
- De besluitvorming verbeteren door blinde vlekken in de informatievoorziening te verkleinen;
- Organisatie-brede samenwerking, inzichten en efficiëntie mogelijk maken;
- Naleving van regelgeving vereenvoudigen;
- Lagere beheerkosten door oudere file systems overbodig maken.
Toonaangevende leveranciers van hybride-cloudplatforms hebben een viertal belangrijke acties gedefinieerd – een raamwerk om ze ‘fit for ai’ te maken – die organisaties helpt hun file data te consolideren om de bedrijfsintelligentie te leveren die nodig is voor het ai-tijdperk. Deze stappen zijn:
- Datasilo’s beoordelen op bedrijfswaarde en risico’s
Een ervaren technologiepartner kan organisaties helpen bij het beoordelen van de bedrijfswaarde en risico’s van het consolideren van datasilo’s, inclusief kapitaal- en operationele kosten, bedrijfsproductiviteit, inkomsten en bedrijfscontinuïteit. Deze aanpak stelt cio’s in staat om hun file storage-omgeving te begrijpen, migratierisico’s te evalueren en het migratieproces te plannen.
- File storage rationaliseren
Deskundige partners kunnen organisaties ook helpen met hun dataconsolidatie. Deze aanpak bouwt een architectuur die niet alleen volledige zichtbaarheid van ongestructureerde file data biedt, maar ook de enkele bron van waarheid die nodig is voor het succesvol toepassen van de ai-diensten die uiteindelijk de evoluerende bedrijfsprocessen van een organisatie ondersteunen.
- Beveiligen en beschermen van geconsolideerde data
Met de toenemende complexiteit van kwaadaardige aanvallen zoals ransomware, moeten cio’s de beveiliging opnieuw evalueren, vooral in het licht van ai-toepassingen die toegang hebben tot uniforme datasets voor meerdere beschermingslagen. Hybride-cloudplatforms bieden uitgebreide bescherming tegen ransomware, met detectie aan de rand van het netwerk en beleid voor risicobeperking. Point-in-time recovery en siem-integratie openen snelle herstel- en traceerbaarheidsmogelijkheden.
- Data verzamelen voor ai-gebruik
Een effectieve ai-strategie vereist geconsolideerde, goed beheerde data. Door gebruik te maken van gespecialiseerde data intelligence tools kunnen organisaties datasets die door ai worden gebruikt verfijnen en dat resulteert in hogere kwaliteit. Zoals het spreekwoord zegt: ‘garbage in, garbage out’!
De geïntegreerde dashboards van de huidige tools voor hybrid cloud storage zijn in staat om het verbruik te kwantificeren tot op afdelings- of bestandstype-niveau en kunnen helpen om data die niet vaak wordt gebruikt te reserveren voor toekomstige archivering.
Moderne ai-ready zoekprogramma’s maken dit makkelijker met krachtige indexering, efficiënte structurering van content voor bruikbare inzichten, en verdere validatie van de gecureerde dataset. Zo wordt de kwaliteit en bruikbaarheid voor downstream toepassingen garandeert.
De huidige tools voor datamanagement zijn volledig te integreren met de bestaande systemen voor identiteitsbeheer van organisaties. Dit helpt IT-teams om groepspermissies en toegangscontrolelijsten te benadrukken en om effectieve bedrijfsbrede beveiligingsprotocollen op te stellen terwijl ai-tools worden getest en geïmplementeerd.
Effectieve datastrategieën moeten ook rekening houden met nieuwe ongestructureerde data die dagelijks aan de edge wordt gegenereerd en gebruikt. Wanneer data van de edge naar de kern wordt geconsolideerd, kunnen ai-algoritmen voorspellende modellen bouwen op basis van uitgebreide profielen, terwijl ze realtime edge-data en historische context ontvangen uit de unified repository. Dit maakt nauwkeurigere realtime-inzichten en operationele besluitvorming mogelijk.
Raamwerk
Een fit-for-ai-raamwerk kan een digitale beheerstrategie ondersteunen die organisaties in staat stelt hun verspreide, ongestructureerde file data voor te bereiden op het gebruik van ai met ingeperkte risico’s. Nu de hoeveelheid data exponentieel toeneemt en er meer ai-tools komen, is effectief datamanagement een voorwaarde voor ai-succes dat nieuwe inzichten oplevert uit geconsolideerde bedrijfsdata. Dit kan resulteren in een transformatie van bedrijfsprocessen en concurrentievermogen.
Arjo de Bruin is solutions architect EMEA bij Nasuni
Het circus.
Een lege kooi
de illusionist gooit er een doek over.
doek er weer af en er zit ineens een olifant in.
applaus want geweldig en we begrijpen er niets van.
Stel dat je eigenaar bent van de tent. waar laat je de olifant.
Is die alleen maar aanwezig tijdens de act of ook daarvoor/daarna ?
kun je die op afroepbasis inhuren. De artiest, de olifant ?
Moet je ze overal mee naartoe zeulen ?
Aan welke nationale en europese regelgeving moet voldaan worden, certified cage, cerfied artiest.
kost dah ?
We begrijpen het niet hoe het werkt, alleen illusionist weet het.
Strak managen, waarde toevoegen, olifant moet groter of meer olifanten.
In iteraties de cirusact verbeteren.
Illusionist naar cursus sturen of toch maar vervangen door een jongere ?
of hybride, oud en jong. Dan kun je over synergie spreken.
want spreken kan altijd.
Lastig hoor.
Lijkt erop dat we continu maar wat doen, wat kiezen.
Iteratief inderdaad.
en coaches.
er moet iets veranderen en we weten niet goed wat en waarom.
de coach wel.
We noemen het allemaal improvement, dat klinkt beter.
Vandaag weer goed op weg.
Geleerd dat AI afhankelijk is van data en de kwaliteit ervan 😛
en dat Nasuni die kwaliteit verbetert.
tel uit je winst.
De olifant van Dino zit niet meer in een kooi als we kijken naar alle Systems of Collaboration waardoor IT-teams al lang niet meer de groepspermissies en toegangscontrolelijsten bepalen. Van olifanten naar aapjes kent dark data een tweeledige uitleg als we naar schaduw IT kijken want edge-data en historische context van de meterkast via de cloud gaat uiteindelijk meer om de dataportabiliteit dan het onderliggende filesysteem. Wat betreft een krachtige indexering en efficiënte structurering wordt er nog opmerkelijk vaak gebruik gemaakt van oude B-trees. Want de eigenaar van de tent of de olifant vergeet de act van de aapjes aangaande een verborgen waarde van algoritmen.
De spiegeltjes en kraaltjes van geïntegreerde dashboards aangaande de metadata zijn dan ook niet nieuw want het kwantificeren van gebruik voor data tiering wordt al een halve eeuw gedaan door de illusionist die een olifant kan laten verdwijnen en verschijnen. Het ‘oog van de naald’ hierin gaat om virtualisatie van de opslag waarbij technologie partners iets kunnen zeggen over prestaties op grond van de grote van de blokken, normalisatie van de I/O en omvang van de rietjes omdat bandbreedte bepalend is in de wijze van lezen en schrijven. En laten we voor de illusie van data integriteit het cryptografisch stempelen van de blokken data niet vergeten want garbage in, garbage out is foutcorrectie niet onbelangrijk.