Computable - Ai bij verzekeraar Achmea

Ai bij verzekeraar Achmea

Repeterende klussen
op- en afschalen

Ai-agents dragen bij aan de digitale transformatie van Achmea. Hoe zet de verzekeraar ze in, wat zijn de uitdagingen en op welke manier passen ze in de organisatie?

Tekst: Bouko de Groot Beeld: Achmea, Shutterstock

Bij verzekeraar Achmea is de toepassing van ai een belangrijk en integraal onderdeel van de strategie en versnelt het de uitvoering van groeiplannen. Computable praat erover met Arnoud Boere, programmamanager AI bij Achmea. ‘De nieuwe generatie ai-technologie biedt veel mogelijkheden om de klanten van Centraal Beheer, Interpolis, Zilveren Kruis en onze andere merken nog beter van dienst te zijn en onze collega’s te ondersteunen in hun werk. Daarbij is ai geen doel op zich, maar een middel om onze klanten sneller, persoonlijker en betrouwbaarder te helpen en om de meest vertrouwde financiële dienstverlener te zijn én te blijven. Dankzij de eerder ingezette rationalisatie van onze ict-systemen en de vrijwel afgeronde migratie naar de cloud, leggen we de basis om ai nog breder toe te passen en onze service verder te verbeteren.’

Welke verzekeringsprocessen zijn geschikt om door ai-agents te worden uitgevoerd?

‘Ai-agents hebben binnen de verzekeringsbranche veel potentieel voor processen of taken die kennis- en data-intensief zijn, veel herhaling kennen of gebaseerd zijn op duidelijke regels. Denk aan het afhandelen van schadeclaims, het beantwoorden van klantvragen via chatbots en het verwerken van mutaties in de polisadministratie, zoals adreswijzigingen of de aanpassing van dekking. Dit zijn processen die voor de klant het liefst snel moeten worden afgehandeld en die voor de verzekeraar eenvoudig op- of afgeschaald moeten kunnen worden. De ai-agents kunnen werk uit handen nemen en zorgen voor snelheid en consistentie.’

Wat doen jullie al met ai-agents?

‘Wij zijn actief bezig met het verkennen en ontwikkelen van ai-agents. Deze worden gezien als digitale assistenten die geheel of gedeeltelijk zelfstandig taken kunnen uitvoeren. Ze gaan verder dan traditionele chatbots en robotic process automation-scripts: ai-agents zijn contextbewust, kunnen plannen, leren en samenwerken.

Ons uitgangspunt is dat er altijd sprake is van een ‘human in the loop’. Daarmee bedoelen we dat ai-toepassingen altijd worden gebruikt in combinatie met checks and balances waarbij mensen betrokken zijn. Zo voorkomen we eventuele ‘computer says no’-issues. Het gaat om een nieuwe technologie die nauwgezet gevolgd en gecontroleerd moet worden.

Een concreet voorbeeld is een lopend onderzoek naar een zogeheten security-agent. Deze agent analyseert netwerkverkeer op pogingen van hackers om kwetsbaarheden uit te buiten. Door patronen te herkennen met behulp van ai, stelt de agent passende acties voor aan securityspecialisten, zoals het afsluiten van poorten of het verhogen van monitoring.

Arnoud Boere, programmamanager AI bij Achmea

De hier ontwikkelde techniek heeft potentieel voor bredere toepassingen waarbij snel en adequaat reageren op complexe data cruciaal is, bijvoorbeeld governance en controle.

Verder onderzoeken we actief nieuwe toepassingen en testen die binnen verschillende bedrijfsfuncties, zoals schade-afhandeling, risicobeoordeling, klantinteractie en documentanalyse. De ambitie is om ai-agents alleen in te zetten waar ze daadwerkelijk waarde toevoegen en niet als gimmick.’

Hoe check je ai en wat doe je als die fouten maakt?

‘We nemen onze verantwoordelijkheid als financiële dienstverlener uiterst serieus. Daarom wordt streng gelet op veiligheid, transparantie en compliance. Alle denkbare technische maatregelen worden genomen, zoals het toevoegen van contentfilters en testprocedures, denk aan red teaming, om risico’s te beperken, en het borgen dat ai-modellen gedeactiveerd kunnen worden wanneer deze niet goed functioneren.

Wij hanteren een strikt toetsingskader, gebaseerd op wettelijke vereisten zoals de AI Act en ethische richtlijnen zoals de Unesco AI-principes. Daarnaast wordt het NIST AI Risk Management Framework gebruikt als referentie om de volledigheid van beheersmaatregelen te toetsen. Elk ai-systeem bij ons wordt vooraf gecontroleerd en tijdens gebruik gemonitord en geëvalueerd.

Er vinden ethische én juridische toetsen plaats. Juridisch wordt onder andere gekeken naar naleving van de AI Act en de AVG: is de verwerking van gegevens rechtmatig, zijn de risico’s voldoende ingeschat, en is de besluitvorming uitlegbaar? Ook wordt beoordeeld of het systeem voldoet aan interne richtlijnen zoals het Ethisch Kader Datagedreven Besluitvorming dat we samen met het Verbond van Verzekeraars hebben ontwikkeld. Bij fouten is er altijd een vangnet.

Dat betekent dat er menselijke tussenkomst mogelijk is bij bepaalde uitkomsten, bijvoorbeeld wanneer een ai-systeem een claim afwijst of een risicoscore toekent. Er zijn duidelijke verantwoordingslijnen: het is vooraf vastgelegd wie verantwoordelijk is voor het ontwerp, het gebruik en het toezicht op het ai-systeem. Zo kan bij een incident snel worden vastgesteld waar het misging en wie actie moet ondernemen. Op deze manier borgen wij dat ai veilig, transparant en verantwoord wordt ingezet.’

‘Ai wordt niet als losstaand ict-project gezien, maar als organisatiebrede ontwikkeling die samenwerking tussen vakgebieden vereist’

Hoe borg je als bedrijf de uitlegbaarheid van ai?

‘Achmea legt over de gehele verwerkingsketen digitale sporen vast van hoe beslissingen tot stand komen, zodat de datakwaliteit geborgd kan worden. Hierdoor kan worden aangetoond dat het ai-systeem correct functioneerde.’

Risicomanagement valt meestal onder de cfo, maar ai is ook ict, dus dat valt onder de cio. En het betreft security, dus de ciso is betrokken en dan is er nog legal… hoe doen jullie dat?

‘We zien dat een verantwoordelijke inzet van ai vraagt om een brede betrokkenheid van disciplines uit ons bedrijf, met ons Responsible AI framework als basis. Het gaat dan bijvoorbeeld om samenwerking tussen compliance, risk management, it, legal en security. Daarom hebben wij centrale sturing en governance ingericht, met vertegenwoordigers van al deze rollen. Zo wordt ai integraal aangestuurd, met aandacht voor risico, technologie, veiligheid en juridische aspecten. Ai wordt op deze manier niet als losstaand ict-project gezien, maar als organisatiebrede ontwikkeling die samenwerking tussen vakgebieden vereist.’

Wat komt er nog meer kijken bij toepassing van ai in de organisatie?

‘Ai is een veelbelovende techniek die wij inzetten op plekken waar het daadwerkelijk waarde toevoegt voor klanten, de organisatie en collega’s. Bij de ontwikkeling en toepassing van ai kijken we niet alleen naar technologische mogelijkheden, maar ook naar de bredere gevolgen voor mens en maatschappij. Zo wordt bijvoorbeeld gelet op het energieverbruik van ai-systemen en het verantwoord gebruik van data en middelen, zoals koelwater van datacenters. Medewerkers worden gestimuleerd om ai bewust en doelgericht in te zetten, met efficiëntie en relevantie als uitgangspunt.

Daarnaast benaderen we ai vanuit een bredere esg-visie. Ethische aspecten, transparantie en inclusiviteit worden meegenomen in ontwerp en besluitvorming. Ai moet bijdragen aan een toekomst die eerlijk, betrouwbaar en duurzaam is – zowel binnen de organisatie als in de dienstverlening aan klanten. Tot slot willen we benadrukken dat we ons ervan bewust zijn dat het gebruik van ai het werk verandert. Daarom besteden we, naast de ontwikkeling van ai-toepassingen en – tool, veel aandacht aan de veranderingen die dit met zich meebrengt. We kijken naar de nieuwe vaardigheden die hiervoor nodig zijn en bieden medewerkers diverse leerpaden om deze te ontwikkelen.’