Het onderwerp artificial intelligence (AI) roept al snel Star Trek-achtige visioenen op waarin robots de wereld domineren en mensen overbodig maken. Onterecht, want AI is al overal om ons heen. Ook in het datacenter is het nu bezig aan een opmars. Sterker nog: het datacenter is de ideale omgeving voor AI.
AI, of kunstmatige intelligentie, is eigenlijk niets anders dan het nabootsen van het menselijk denkvermogen in een machine. Die machine wordt niet geprogrammeerd om bepaalde taken uit te voeren, maar neemt zelfstandig beslissingen op basis van de patronen die het ontdekt in grote hoeveelheden data. Met machine learning wordt die machine ook steeds beter in het uitvoeren van een taak of het leggen van verbanden.
Bijna iedereen maakt inmiddels gebruik van kunstmatige intelligentie. Een voorbeeld van een AI-toepassing uit de praktijk is de virtuele assistent Google Now. Deze assistent weet verbanden te leggen tussen je locatie, je agenda en je reisgeschiedenis. Het maant je om eerder op pad te gaan, omdat er op de route een file staat. Of wat te denken van de Facebook Messenger-chatbot die voor een ondernemer zelfstandig het contact met klanten afhandelt?
Datacenterexperimenten
Momenteel zijn het met name de grote internetbedrijven die fors investeren in de ontwikkeling van toepassingen voor kunstmatige intelligentie. Zo heeft Facebook ‘Artificial Intelligence Research’-labs in New York, Californië en Parijs. Google gaf eind 2015 TensorFlow vrij. Dat is geavanceerde deep learning-software in een kant-en-klare gereedschapskist waarmee gebruikers direct aan de slag kunnen. Google leverde zelf een voorbeeld van de mogelijkheden door een neuraal netwerk op basis van TensorFlow een pianonummer te laten componeren.
Het zijn ook deze bedrijven die nu in hun datacenters experimenteren met kunstmatige intelligentie, bijvoorbeeld om de energie-efficiëntie nog verder aan te scherpen. Zo hebben de eigen wetenschappers van Google een algoritme ontwikkeld dat aan de hand van een enorme berg gegevens vrijwel exact kan voorspellen hoeveel capaciteit er in een aantal seconden al wordt gevraagd en hoeveel energie en koeling daarvoor nodig is.
Ideale omgeving
Hoewel kunstmatige intelligentie voor het aansturen van datacenters nog in de kinderschoenen staat, is het nu al duidelijk dat deze toepassing niet is voorbehouden aan de ‘hyperscales’. Zo biedt Virtual Power Systems, dat oplossingen levert aan datacenters in Californië, nu al intelligente stroomvoorzieningen met zelflerende software. Hiermee kunnen de stroomvoorzieningen na verloop van tijd zelf aangeven wanneer ze onderhoud nodig hebben. Ook het Open Compute Project, ooit geïnitieerd door Facebook, toont openlijk belangstelling voor de toepassingen van kunstmatige intelligentie in het datacenter.
Datacenters zijn dan ook de ideale omgeving voor het toepassen van kunstmatige intelligentie. In datacenters zijn namelijk al heel veel data beschikbaar. Denk bijvoorbeeld aan gegevens over het functioneren van de servers en de netwerkapparatuur, over de temperatuur en luchtvochtigheid in het datacenter en over het energieverbruik. Door de toepassing van goedkope Raspberry Pi-technologie voor de koppeling van sensoren aan controllers zal de hoeveelheid beschikbare data alleen maar verder toenemen.
Voor mensen is het moeilijk vast te stellen hoe al die variabelen zoals temperatuur en energieverbruik zich tot elkaar verhouden. Hier ligt juist de kracht van computers: in het ontdekken van een verhaal, oftewel patroon, in een berg data. En dan wordt het mogelijk om te voorspellen hoe een server zich gaat gedragen bij piekbelasting, een zaaltemperatuur van 21 graden en een relatieve luchtvochtigheid van 65 procent.
Datacenters die zichzelf beheren, configureren, herstellen en beschermen zijn misschien nog toekomstmuziek, maar zeker geen Star Trek-visioen.
AI biedt ook veel nieuwe mogelijkheden voor hackers. Aangezien de input voor een AI toepassing veelal bestaat uit IOT sensoren, zou de manipulatie van een of meerdere sensorwaarden mogelijk al kunnen zorgen voor een verkeerde beslissing van die AI toepassing.
Als je kunstmatige intelligentie heel fraai omschrijft als “het nabootsen van het menselijk denkvermogen in een machine”, dan is het nogal eigenaardig om vervolgens met (het doorrekenen van) neurale netwerken op de proppen te komen. In mijn optiek heb je voor kunstmatige intelligentie op z’n minst een soepel functionerende selfservice-architectuur nodig; een SOA dus, maar dan service-georienteerd (van output naar input) en niet procesgeorienteerd (van input naar output).
Datareductionisten hadden we al binnen dit forum; op neuroreductionisten zitten we nog minder te wachten 😉