Loek Moerman
In vrijwel alle onderdelen van ons leven is de aanwezigheid en verdere opkomst van Artificial Intelligence (AI) te merken. Of het nu gaat om een social media platform als LinkedIn of het online bestellen van boodschappen, via AI worden voorkeuren opgeslagen, waardoor je gerichte posts te zien krijgt of gepersonaliseerde aanbiedingen ontvangt. AI is er en gaat niet meer weg. En de vraag is of dat erg is, want het zorgt voor innovatie en vernieuwing en we maken daar met z’n allen graag gebruik van.
Ook in de financiële sector wordt AI (uiteraard) steeds vaker ingezet. Hoewel dit grote kansen en voordelen biedt in het kader van efficiency en dus kostenverlaging, worden de ogen niet gesloten voor de risico’s die samenhangen met het gebruik van AI. AFM en DNB hebben in april 2024 gezamenlijk een rapport gepubliceerd: “De impact van AI op de financiële sector en het toezicht”. In dit uitgebreide rapport wordt door DNB en AFM onder andere geconcludeerd dat met het gebruik van AI het klantbelang niet mag worden aangetast. De normen ten behoeve van de bescherming van het klantbelang bij productontwikkeling en -distributie zijn en blijven van toepassing bij het gebruik van AI. Sterker nog, wanneer AI hier geïntegreerd wordt, zal dit leiden tot een afzonderlijke afweging in de productbeoordeling. Het gebruik van AI werpt ook ethische vraagstukken op die bij productgoedkeuring meegewogen moeten worden.
In het rapport van AFM en DNB wordt een aantal risico’s genoemd die het gebruik van AI met zich meebrengt. Zo kunnen AI-modellen waarbij gebruik is gemaakt van inadequate data, leiden tot een onjuiste inschatting van de risico’s en kunnen modellen ‘biases’ bevatten die leiden tot benadeling van klantgroepen.
Ook de Nederlandse Vereniging van Banken (NVB) heeft een position paper gepubliceerd over AI in de financiële sector. Zij zien grofweg drie toepassingsgebieden in de financiële sector:
Het gebruik van AI in het productontwikkelingsproces (PARP) zal naar verwachting de komende jaren alleen maar verder toenemen. Hierboven staan al enkele opvattingen vanuit de toezichthouders en de NVB. Maar uiteindelijk is het aan de instellingen zelf om AI op gepaste wijze te integreren in het PARP. Dit leidt, zoals gezegd, hoe dan ook tot ethische dilemma’s. Hieronder noem ik er een paar:
In AI-algoritmen kunnen onbedoeld bijvoorbeeld discriminerend beslissingen worden afgedwongen, als de data waar gebruik van wordt gemaakt, vooringenomen is tegen bepaalde etnische groepen. Er is dus alles aan gelegen om ervoor te zorgen dat de AI-systemen eerlijk zijn en gelijke kansen bieden aan alle klanten, ongeacht hun achtergrond. Ook kunnen er issues ontstaan in het kader van transparantie en uitlegbaarheid. Vooral bij deep-learning modellen kan sprake zijn van een “black box”, omdat dan erg moeilijk te begrijpen is hoe een model tot een beslissing komt. En van financiële instellingen wordt wel verwacht dat zij dit kunnen uitleggen.
AI kan worden gebruikt om bijvoorbeeld een premie voor een verzekering vast te stellen, waarbij het algoritme leert, op basis van bijvoorbeeld kenmerken als leeftijd, woonplaats en schadeverleden, welk profiel bij een klant passend is. In eerste instantie klinkt dat als een prima werkwijze, maar als jij in een postcodegebied woont, waarin een aantal anderen met een vergelijkbaar profiel wonen, betaal je mogelijk een hoge premie of word je onverzekerbaar. Dit is strijdig met het solidariteitsprincipe. Maar ethische dilemma’s kunnen ook ontstaan in het kader van geautomatiseerde kredietverstrekking, door de kredietwaardigheid van individuele klanten te beoordelen met behulp van AI. Ook wordt AI gebruikt om gepersonaliseerd beleggingsadvies te geven aan klanten op basis van financiële situatie, doelen en risicobereidheid van de klant.
Dit alles biedt de nodige uitdagingen voor de compliance officer in het productontwikkelingsproces. Op zijn minst moet je als compliance officer begrijpen hoe een AI-model is opgebouwd. Dit betekent uiteraard dat een “oude” competentie van de compliance officer ingezet moet worden: vragen stellen, vragen stellen, vragen stellen. Maar ook zorgen dat in de ontwikkelfase alle mogelijke scenario’s en uitkomsten naar voren komen, vaststellen wie verantwoordelijk is voor de toepassing en op welke wijze de controle hierop is ingeregeld, zodat het risico op verrassende uitkomsten beperkt wordt. Klinkt makkelijker dan het in de praktijk is.
Op 25 juni organiseert het NCI een eendaagse workshop ‘PARP, de kracht van productgoedkeuring’. In deze workshop komen alle aspecten van het productgoedkeuringsproces aan de orde, dus ook het gebruik van AI in dit proces en worden onderlinge ervaringen op dit gebied met elkaar gedeeld.