Afbeelding AI, Governance en Compliance

Eric Schuiling - AI, Governance en Compliance

Eric pakt een zeer actueel onderwerp bij de haren door de ontwikkelingen van Artificiële Intelligentie of Kunstmatige Intelligentie (AI of KI) direct te koppelen aan hoe die ontwikkeling een stempel kan drukken op de hele maatschappij en met een bruggetje naar ons congres en hoe we daarmee te maken kunnen hebben vanuit compliance en als compliance officers.

Eric begon in zijn introductie met de statement dat AI zowel een dankbaar-  als een ondankbaar onderwerp is; dankbaar vanwege de actualiteit, en ondankbaar omdat als je er iets over gezegd of geschreven hebt, je mogelijk alweer bent ingehaald door de actualiteit. Je kunt dan ook niet even ademhalen, maar je moet constant alert blijven en dat kost aardig wat toewijding en commitment van ons en van instellingen. Hij wist ook op een leuke en beeldende manier de aandacht te vragen voor wat ‘AI’ nou werkelijk is en hoe risicovol dat kan zijn als je dat niet weet. Als voorbeeld liet hij twee deelnemers aan de workshop figureren in een klein toneelstukje waarbij een hoofdrol was weggelegd voor een grote goudkleurige doos met als opschrift: ‘Een héle gave app’ die werd aangeboden aan één van de figuranten met de vraag” wat doe je hiermee?”. Gezien de samenstelling van de deelnemersgroep was het niet verrassend dat de eerste vraag was: “waar is die gave app dan voor en wat doet die precies?” waarbij de onderliggende vraag natuurlijk is: “welke risico’s zijn er verbonden aan het installeren van die app voor mij of mijn organisatie?”.

 

Daarmee werd het toneelstukje direct gestuurd in de richting van het gegeven dat ‘een app’ feitelijk geen gouden doos is, maar eerder een ‘black box’ die dan ook uit de gouden doos tevoorschijn kwam met als opschrift ‘AI”. En dat was precies waar het over ging; Wat weet je van wat er in die zwarte doos zit. Wat kan je er van verwachten en waar moet je voor oppassen? De app/ black box bestaat uit algoritmen die vast hele gave dingen kunnen doen, maar waarvan je verder niet weet wat die algoritmen verder nog doen met de data die verwerkt wordt of waar toegang tot verkregen wordt.

 

 

Afbeelding AI, Governance en Compliance

Deze vraag werd door Eric gekoppeld aan wat hij het alignment vraagstuk noemt en waar de tweede figurant haar intrede deed in het toneelstukje. Zij droeg een kleinere gouden doos met het opschrift Missie/visie, ambities, doelen en strategie. De vragen die aan haar en de deelnemers gesteld werden hadden betrekking op: hoe draagt AI bij aan de missie, de visie, de strategie van een instelling en hoe past dat binnen de waarden en normen van die instelling en de realisatie van (strategische) doelstellingen en gerechtvaardigde verwachtingen van de stakeholders? Vragen die lastig te beantwoorden zijn als je die niet aan een specifieke case kunt koppelen.

De workshop werd afgerond met het stellen van een aantal vragen die min of meer bedoeld waren om een aantal risico’s onder de aandacht te brengen. Op voorhand gaf Eric al aan dat het stellen van de vraag of AI ‘goed’ of ‘fout’ was, te vergelijken is met het stellen van de vraag of de zon ‘goed’ of ‘fout’ is. Uiteindelijk gaat het om context. Hoe AI gebruikt wordt en welke waarborgen je daarbij inricht, is bepalend of het ‘goed’ of ‘fout’ uitpakt.

Ook de vraag wanneer je moet beginnen met het stellen van vragen over ‘AI’ is eigenlijk een open deur. Je start daar natuurlijk zo spoedig mogelijk aan het begin, tussendoor en aan het einde van een traject, waarbij ook een duidelijke rol is weggelegd voor Compliance als bewaker van het proces, maar zeker ook als countervailing power ten opzichte van de techneuten en de business. Ook de juridische afdeling heeft hier een aandeel in.

Tijdens de presentatie werd een lijst van risico’s gedeeld maar voor dit verslag haal ik er eentje specifiek uit, namelijk ‘Bias’ ofwel vooringenomenheid en vooroordelen. Probeer objectief te blijven kijken naar wat AI je voorschotelt. Vergeet niet dat de bron van AI is wat een ander daarover eerder op z’n computer heeft gezet! AI Gaat zo ontzettend snel dat we ons goed moeten realiseren dat we onze handen vol hebben aan het tracken van de risico’s waar we op dit moment al van weten, maar dat een nog grotere uitdaging is als je bedenkt dat er ook legio risico’s zijn waar we misschien nog niets van weten, maar waarmee we wel te maken krijgen.