In deze rubriek een greep uit de stortvloed aan berichten over artificial intelligence (ai). Ditmaal energie-ontwikkelingen in Nederland, misbruik van ChatGPT en een ai-zeepbel die op knappen staat.
Energienetbeheer
Machine learning helpt netbeheerders te helpen het energienetbeheer te optimaliseren. Zeker nu de opkomst van wind en zon andere eisen stelt aan het elektriciteitstransportnet, is dat belangrijk. Een onderzoeksgroep van VU Amsterdam past multi-agent reinforcement learning toe om betere ‘topologische maatregelen’ te nemen, zoals het vervangen van leidingen om zo elektriciteitsstromen te optimaliseren.
De onderzoekers Alessandro Zocca, Erica van der Sar en Sandjai Bhulai trainen agents in het nemen van de juiste beslissingen op basis van historische gegevens over stroomopwekking en stroomverbruik. Er is zoveel besluitvorming nodig dat dit teveel is voor één agent. Daarom heeft Zocca het net opgesplitst in clusters, elk met een eigen lokale agent. Om de besluitvorming te coördineren, is een hiërarchie gecreëerd: één brein bevindt zich op een hoger niveau en stuurt de andere breinen aan.
In een later stadium zijn de verkregen inzichten te gebruiken om in realtime de beste maatregelen te bepalen om de netstabiliteit te behouden en congestie tot een minimum te beperken. Doel van hun onderzoek is te komen tot een dashboard dat de besluitvorming ondersteunt met behulp van ‘hoogopgeleide ai-agenten’. Jan Viebahn, lead data scientist bij TenneT, spreekt van de controlekamer van de toekomst, waarin het beste van menselijke intelligentie wordt gecombineerd met ai.
Cybercriminelen misbruiken ChatGPT
OpenAI beschrijft in een rapport hoe cybercriminelen dit jaar ChatGPT hebben misbruikt om malware te ontwikkelen en cyberaanvallen voor te bereiden. Hackersgroepen uit landen zoals China en Iran gebruikten ChatGPT om bestaande malware te verbeteren, nieuwe malware te ontwikkelen, phishing-campagnes te ondersteunen en desinformatie te verspreiden. Een specifieke dreiging kwam van de Iraanse groep CyberAv3ngers, die ChatGPT inzette om kwetsbaarheden in industriële controlesystemen te onderzoeken en gerichte aanvallen voor te bereiden. Hoewel deze activiteiten zorgwekkend zijn, benadrukt OpenAI dat er geen significante doorbraken zijn te noteren in malware-ontwikkeling via ChatGPT en dat er geen toename is van succesvolle aanvallen. Beveiligingsexperts waarschuwen echter dat het risico op misbruik van ai-technologie zal blijven bestaan en mogelijk zal toenemen.
Ai-zeepbel staat op knappen
Baidu verwacht dat de huidige ai-hausse snel ten einde komt en de zeepbel uiteen spat. Robin Li, de topman van de Chinese tegenhanger van Google, ziet een parallel met de dotcom-hausse van eind jaren negentig. Net als toen is een grote sanering onvermijdelijk. Slechts een fractie van de startups zal dit overleven, aldus Li tijdens een conferentie van Harvard Business Review. Uiteindelijk groeit ongeveer een procent uit tot een grootmacht die veel waarde creëert.
Volgens Li zijn de grote taalmodellen de afgelopen achttien maanden sterk vooruitgegaan. Chatbots die op de laatste modellen zijn gebaseerd, hallucineren nauwelijks meer. In principe kan je op hun antwoorden vertrouwen. De nauwkeurigheid is enorm vergroot. Li verwacht dat over vijf à tien jaar iedereen die een natuurlijke taal spreekt, de kracht van een programmeur kan hebben.