Hoe kan een actuaris verantwoordelijk blijven voor de beslissingen die door een AI-systeem worden genomen, terwijl de werking van het systeem mogelijk niet volledig transparant of begrijpelijk is? Hoe kunnen actuarissen de AI-modellen uitleggen en rechtvaardigen aan hun collega’s, klanten en toezichthouders?
Vraag Copilot naar de drie grootste uitdagingen van AI voor het actuariaat en het systeem geeft de volgende reactie:
Het valt mij op dat Copilot hier niet rept over ethische uitdagingen voor het actuariaat. Een andere tool, ChatGPT, doet dit wel als je er expliciet naar vraagt. Deze toepassing ‘ziet’ als grootste ethische uitdagingen:
Een derde AI-tool, Perplexity, heb ik de opdracht gegeven een volledige blog over de uitdagingen van AI voor de actuaris te schrijven. Perplexity komt tot de volgende conclusie:
“De integratie van AI in de actuariële praktijk is niet slechts een technologische evolutie, maar een ethische revolutie. Het biedt de kans om sectoren zoals de verzekeringssector rechtvaardiger, efficiënter en toegankelijker te maken. Maar alleen als we de moed hebben om moeilijke vragen te stellen en de wijsheid om verder te kijken dan de cijfers. Actuarissen hebben de unieke positie om de brug te slaan tussen technologie en ethiek. Waarom deze kans niet grijpen en samen bouwen aan een toekomst waarin AI niet alleen slim, maar ook rechtvaardig is?”
Zelf ben ik geen actuaris en kijk ik met bewondering naar de meesters op dit vakgebied. In mijn ogen als leek, weten zij door het gebruik van modellen en veel data een bijzonder accurate glazen bol te creëren. In zekere zin bezaten zij al de ‘generative intelligence’ toen AI nog ontwikkeld moest worden. In samenwerking met AI kunnen zij hun rol versterken door gebruik te maken van geavanceerde algoritmen die in staat zijn om in seconden (of nog sneller) complexe berekeningen uit te voeren.
Maar het toepassen van AI vraagt aanpassingsvermogen van de meesters. Met het uitbesteden van het rekenwerk en het maken van nieuwe modellen aan AI-systemen moet de actuaris zich opnieuw uitvinden. Het reken- en analysewerk wordt grotendeels voor hem gedaan. Naar mijn mening is het de uitdaging voor de actuaris om de menselijke factor toe te voegen aan de modellen om bias en discriminatie te voorkomen. Ook moet hij/zij verantwoordelijkheid nemen door modellen blijvend te toetsen op accuraatheid en uitlegbaarheid.
Perplexity beschrijft in de blog een voorbeeld van toepassing van AI in het werk van de actuaris bij een verzekeraar:
“Het implementeren van AI in actuariële processen biedt ongekende mogelijkheden. Denk aan nauwkeurigere risico-inschattingen, gepersonaliseerde verzekeringsproducten en efficiëntere claimafhandelingen. Maar hier schuilt ook een gevaar in. AI-systemen zijn zo goed als de data waarmee ze gevoed worden. Wat gebeurt er als deze data onbewuste vooroordelen bevat? Of erger nog, wat als AI-modellen leiden tot onethische praktijken zoals extreme risicoselectie, waardoor bepaalde groepen in de samenleving onverzekerbaar worden?
Stel je voor: een AI-model suggereert om de premies voor een bepaalde postcode significant te verhogen vanwege een hoger claimrisico. Op het eerste gezicht lijkt dit een logische bedrijfsbeslissing. Maar wat als dit gebied voornamelijk wordt bewoond door mensen met een lagere sociaaleconomische status? Is het ethisch verantwoord om deze groep mogelijk uit te sluiten van betaalbare verzekeringen?”
In mijn visie is de actuaris niet meer de pure cijferaar, maar transformeert hij/zij naar een ethische waakhond. In het hierboven beschreven voorbeeld ontstaat een onwenselijke situatie waar de actuaris zal moeten ingrijpen om de menselijke factor en het solidariteitsprincipe te verdedigen. Empathie, nuance en moreel oordeelsvermogen zijn kwaliteiten die (nog) niet in algoritmen te vatten zijn. De actuaris moet deze menselijke eigenschappen combineren met technologische expertise om echt waardevol te blijven.
Het voorbeeld van de verzekeraar geldt onverkort ook voor de pensioensector waarin momenteel een revolutie plaatsvindt op weg naar een nieuw pensioenstelsel. De actuaris moet voor allerlei soorten deelnemers verschillende modellen ontwikkelen en doorrekenen om te komen tot een evenwichtige verdeling van de pensioenpot of in ieder geval de verdeling te toetsen op evenwichtigheid. Zonder AI wellicht een onmogelijke klus maar met AI een vergroot risico op onevenwichtigheid. Het is van belang dat de actuaris volledig doorgrondt wat er gebeurt.
Het Verbond van Verzekeraars heeft, net als verschillende andere brancheverenigingen, een ethisch kader ontwikkeld voor datatoepassingen en datagedreven besluitvorming. Deze is per 1 januari 2025 bindend voor alle leden. Het kader geeft open normen en heeft een brede scope. Het is aan de verzekeraar om hier nader invulling aan te geven. De actuaris speelt bij deze invulling een belangrijke adviserende en toetsende rol.
Naar mijn mening kan een dergelijk kader ook niet meer bieden dan open normen. De technische ontwikkeling gaat te snel om gedetailleerde regels te stellen, deze zijn simpelweg bij verschijnen alweer verouderd. En de maatschappelijke opinie op AI en datagedreven besluitvorming verandert misschien zelfs nog wel sneller. Het is daarom van belang dat de organisatie een strategische visie uitspreekt en een aantal basis-uitganspunten adopteert. Het Verbond geeft hiervoor 7 handvatten:
Met het toepassen van deze handvatten worden de vakgebieden van Actuariaat en mijn vakgebied, Compliance, met elkaar verbonden. Ook compliance officers worstelen met de ethische kaders voor het toepassen van AI en de integriteitsrisico’s die hiermee gepaard gaan. Tegelijkertijd worden ook in het compliance vakgebied de kansen van AI onderschreven en zal het vakgebied zich aan moeten passen aan een nieuwe werkelijkheid. In beide gevallen is het van belang dat we de organisatie adviseren over de toepassing van AI en dat we vanuit onze toezichthoudende rol kritische vragen blijven stellen over deze toepassing. De uitdagingen zoals verwoord door Copilot, ChatGPT en Perplexity zijn significant maar zeker niet onbeheersbaar.
In het klein beschrijf ik in deze bijdrage hoe ik vind dat AI toegepast zou moeten worden: gebruik het, doe er je voordeel mee maar controleer ook en hou altijd zelf de regie. En dit begint al bij de data die je erin stopt of de vragen die je stelt aan de tool die je gebruikt. De richting van de analyse wordt daar in feite al bepaald.
Ruud van der Mast is directeur en compliance officer bij het Nederlands Compliance Instituut.