BLOG – In november 2022 kwam de ai-chatbot ChatGPT voor publiek gebruik beschikbaar. Na een periode van ongekende populariteit volgde in maart 2023 de geüpgradede variant, ChatGPT-4. Maar in deze positieve stroom ontstond ook een tegenbeweging. Slechts enkele weken na de lancering van ChatGPT-4 ondertekenden meer dan duizend techleiders, onder wie Elon Musk, een open brief waarin ze ai-laboratoria opriepen om zes maanden lang een pas op de plaats te maken in ai-onderzoek en -ontwikkeling.
Volgens de critici evolueerde de technologie te snel. Italië was het eerste land ter wereld die ChatGPT verbood, waarop de Europese Unie en China aankondigden te werken aan regelgeving voor ai.
Bij het overwegen van verantwoorde ai, denken we aan de impact ervan op de tech-industrie: hoe dient ai gereguleerd te worden en welke ontwikkelingen zullen voortkomen uit nieuwe regelgeving? Ai manifesteert zich echter daarnaast ook als een waardevolle kracht in andere sectoren, zoals de maakindustrie. De technologie is in staat kostbare tijd en middelen te ‘ontgrendelen’ door werklasten te automatiseren, weloverwogen zakelijke beslissingen te nemen en activiteiten te stroomlijnen.
Zelfbewust
Voor veel bedrijven in de maakindustrie gaat het er niet om of ai zelfbewust wordt, maar dat bedrijven de adviezen en beslissingen van ai-modellen begrijpen en malware kunnen detecteren. Organisaties integreren ai-modellen immers steeds meer en vertrouwen er meer op.
Kijk je naar welke rol ai precies speelt in de maakindustrie, dan zie je dat ai taken kan vereenvoudigen door potentieel onderhoud van machines te detecteren voordat het serviceteam wordt ingeschakeld. Hierdoor worden bedrijfsprocessen geoptimaliseerd.
Cyclus
Als het aankomt op verantwoorde ai, zijn er twee overwegingen om rekening mee te houden. Het eerste is praktisch: neemt ai juiste beslissingen om de juiste redenen? Het hebben van explainable ai is cruciaal om te begrijpen waarom een algoritme de beslissingen maakt die het maakt, ook als die beslissingen ineffectief blijken te zijn. Vaak ontstaat er een cyclus waarin machine learning (ml) de ai voedt en de ai op zijn beurt meer data produceert voor het ml-model. Gebrekkige redenering kan de output vervuilen, wat resulteert in onbruikbare gegevens en onbetrouwbare besluitvorming. Inzicht daarin is dus belangrijk.
Aan de andere kant van de medaille richt het ethische aspect zich meer op de cybersecurityzorgen rondom ai. Ransomware vormt een aanzienlijk probleem voor elk ai-systeem. Als malware de gegevens in een ai-systeem beschadigt en het algoritme verstoort, kan dit tot een sneeuwbaleffect leiden met rampzalige gevolgen, zoals onherstelbare schade aan de producten.
Binnendringen
Hoe autonomer en intelligenter ai-systemen worden, hoe groter het risico dat een kwaadwillende partij kan binnendringen en het systeem kan beschadigen zonder het volledig uit te schakelen. Hierdoor is de kans kleiner dat het systeem tijdig wordt gedetecteerd en hersteld. Het ontbreken van menselijke tussenkomst geeft malware meer gelegenheid om onopgemerkt te blijven.
Bij elke update heeft ChatGPT zichzelf effectiever en bekwaam getoond, wat heeft bijgedragen aan een toenemende populariteit
Bedrijven moeten daarom cybersecurity serieus nemen voor een veilig en verantwoord gebruik van ai. Het vereist software met de juiste beveiligingsmaatregelen en strikte scheiding van taken en bevoegdheden voor elke opdracht of gebruiker. Zo worden praktische en ethische aspecten van ai samengebracht, wat resulteert in een verantwoord gebruik van ai. Op deze manier is ai in te zetten om zakelijke besluitvorming te vereenvoudigen.
Bij elke update heeft ChatGPT zichzelf effectiever en bekwaam getoond, wat heeft bijgedragen aan een toenemende populariteit. Ondanks de voortdurende onzekerheid voor het onbekende, lijkt de kans op een vertraging in de ontwikkeling van nieuwe ai-tools klein. Het is essentieel dat we niet aarzelen om de diepgaande werking van deze technologie te begrijpen, het volledige potentieel benutten en ai evenzeer beschermen tegen eventueel kwaadaardige aanvallen van ongewenste partijen.
Kevin Miller is chief technology officer bij IFS
Het detecteren van potentieel onderhoud deden we al voordat AI populair werd want meten is weten gaat meer om de IoT in de maakindustrie als we kijken naar een eerdere statistiek in preventieve onderhoud. Het vervangen voordat het een probleem wordt was vroeger de 10.000 kilometer beurt maar tegenwoordig een real-time kwaliteitscontrole waarbij de auto zelf de afspraak kan maken met een servicecentrum in de buurt. Dat gaat niet zo zeer om AI maar om een enorme generatie aan data in de edge, een begrip waar ChatGPT verschillende definities aan geeft.
Zo kan edge in AI een verschuiving van de algoritmen betekenen waardoor de afhankelijkheid van internet kleiner wordt, autonoom en minder kwetsbaar als je een goede controle op de code hebt. Ouderwets gescheiden van het publieke netwerk met eventueel nog een eigen netwerk wat strikt gescheiden is van andere netwerken sluit je al heel wat kwaadwillende buiten. Want bedrijfspionage via de cloud blijft een serieus risico in de maakindustrie als we kijken naar strategische goederen in de toeleveringsketens.
De uitval van indicatoren geeft een duidelijk signaal dat er wat mis is maar het succes om de Iraanse centrifuges op een lager toerental te laten draaien dan de meters aangaven gaat om een andere vijand. Want de grootste kwetsbaarheid in de besluitvorming is de menselijke schakel doordat de meeste beslissers geen diepgaande kennis van de onderliggende technologie hebben. Las hier laatst iets over juristen die meer met het temmen van de papieren tijgers bezig zijn dan natuurkundige wetten waardoor we een groeiende achterstand in onderhoud hebben.