Ai, nog niet gelezen

10 februari 2025
Afbeelding Ai, nog niet gelezen

In een eerdere blog bekende ik al, dat de liefde voor lezen bij mij pas op latere leeftijd is ontstaan. Het nadeel van eenmaal over de drempel heen te zijn is dat ik moet constateren dat er zo veel te lezen valt, dat het maken van soms pijnlijke keuzes noodzakelijk is. Je kunt binnen een bepaald tijdsbestek niet alles lezen, zeker niet als je ook nog andere verplichtingen en hobby’s hebt. En dan heb ik het niet alleen over het privé leeswerk, maar ook over het doornemen van literatuur die met je werk te maken heeft. 

‘Ja’ is ook gelijk ‘nee’ 

Het maken van keuzes is vaak lastig, want ‘ja’ zeggen tegen het ene, betekent automatisch ‘nee’ , ‘nog niet’ of ‘niet nu’ zeggen tegen het andere. Dus als die ene collega weer eens vraagt of je nu eindelijk dat boek hebt gelezen dat hij je heeft aangeraden, moet je weer zeggen: “Ai, nog geen tijd gehad om te lezen.” En na een tijdje merk je dat die collega het ook maar niet meer vraagt, terwijl je echt wel het gevoel hebt dat je met hem of haar een waardevol gesprek zou kunnen hebben naar aanleiding van het boek. En voor je het weet heb je het idee dat je hopeloos achter loopt en de berg met ‘nog te lezen’ boeken en artikelen alleen maar groeit. 

Wat nu toe doen? 

Nu zou je me kunnen vragen waarom ik me zo druk maak over wat anderen van mij denken. Misschien maak ik me wel te druk om mijn literaire reputatie bij mijn collega’s. Ik zou ook kunnen denken dat het iedereen wel bekend is dat je niet alles kunt lezen in een beperkte tijd. 

Toch blijft dan de vraag hoe je de inhoud van zeker een aantal belangrijke vaktechnische publicaties tot je kunt blijven nemen. Zeker in het breed georiënteerde compliancevakgebied worden op dagelijkse basis zoveel relevante teksten gepubliceerd, dat dit toch een probleem blijft vormen. 

AI, de oplossing? 

Is AI, kunstmatige intelligentie, dan de oplossing? Naast natuurlijk het afluisteren van een luisterboek of podcast? De laatste tijd is het in steeds meer online AI tools, zoals bijvoorbeeld Notebook LM, mogelijk om zelf bronnen in te voeren. Te denken valt aan PDF-documenten, websites en YouTube filmpjes. Het interessante hiervan is dat je als gebruiker op deze manier daadwerkelijk ‘in gesprek kunt’ met de input die je zelf hebt geleverd. Hiermee lijken eerdere bezwaren tegen de ‘black box van de trainingsbronnen’ van dit soort AI tools minder relevant te worden. Immers, je kunt de AI tool vragen het antwoord op jouw vragen (alleen) te baseren op de input die je zelf hebt gegeven. 

Je zou dus kunnen concluderen dat het niet langer nodig is om documenten van eerste tot laatste letter te lezen. Je voert het stuk simpelweg op in een AI tool, stelt de vraag die je wilt en de computer spuugt binnen een mum van tijd het antwoord uit dat je nodig hebt. Een samenvatting van een document is bijvoorbeeld in een mum van tijd op te stellen. Het begint er verdacht veel op te lijken dat je op deze manier een enorme hoeveelheid tijd kunt besparen! Hoe geweldig is dit? 

Beroepsdeformatie 

Het karakter van het beroep van integriteits- of compliance professional vraagt dat we kritisch zijn op eigenlijk alles waar we kennis van nemen. Dat kan zeker ook tot nare trekjes leiden, bijvoorbeeld als je in een restaurant niet meer kunt genieten van een gezellige avond aangezien je geneigd zou kunnen zijn om op alles te letten dat minder goed geregeld is: Staat die plantenbak wel recht? Kijkt de gastheer gastvrij genoeg?  

Zeker als AI in het spel komt, is toch enige kritische terughoudendheid wel op zijn plek. Het kritische karakter van de compliance officer komt hier goed van pas. Immers, we staan pas aan het begin van de AI ontwikkeling en de meeste mensen zijn het wel eens over het feit dat het allemaal razendsnel gaat. Dat betekent ook, dat nog van lang niet alle ontwikkelingen de risico’s bekend zijn of goed zijn doordacht.  

Leren van hallucineren 

Bij het inzetten van AI tools spelen risico’s waarvan het belangrijk is om kennis van te nemen. Eén van de belangrijkste risico’s vind ik het risico op hallucineren van de AI tool. Met andere woorden: AI levert een antwoord dat verzonnen is door de tool. De werking van de AI tool maakt, dat feitelijke informatie wordt weggelaten, vervormd of bewerkt . Het is goed om te realiseren dat AI inzetten voor het genereren van feitelijke informatie hierdoor grote tekortkomingen kan vertonen. Nagenoeg iedere professional zal beamen dat het in het integriteits- en compliancevakgebied draait om gevoel, interpretatie,  nuance en feiten. Dan is het risico op hallucinaties, terwijl je ook niet weet wanneer en op welke plek deze hallucinaties voorkomen, een risico dat van belang is. Als Nederlands Compliance Instituut zijn we van mening dat je, ondanks dat je AI inzet, altijd zelf nog verantwoordelijk bent voor de tekst die je schrijft. Dit en ook andere standpunten met betrekking tot AI kun je trouwens lezen op onze website 

Maakt AI ons overbodig? 

Uitgangspunt voor het kunnen nemen van verantwoordelijkheid is wel dat je de output van AI kunt lezen en eventuele fouten en hallucinaties kunnen herkennen en kan corrigeren. Stel dat we eens nadenken over hoe de wereld er over 10 à 20 jaar uit ziet. Tegen die tijd is een hele generatie jongeren opgegroeid met de inzet van AI. In welke mate beschikken zij nog over de vermogens om output van de AI van die tijd kritisch te beoordelen? In welke mate neemt AI dan, met alle input van wat op internet circuleert, ons leven en ons denken over? 

Wellicht is dit een wat dystopische gedachte, maar met de huidige ontwikkelingen, niet alleen op technologisch, maar bijvoorbeeld ook (geo)politiek niveau, geen onvoorstelbare. Nadenken over manieren hoe we dit scenario zo goed mogelijk kunnen voorkomen is de investering meer dan waard lijkt me. 

Ten slotte 

De ontwikkeling van AI neemt een grote vlucht. Het is een techniek die waarschijnlijk een zeer grote impact heeft op onze (nabije) toekomst. Het is daarom zeer aan te raden op de hoogte te blijven van (ook) deze ontwikkelingen. Dat kun je doen door niet alleen van alles te lezen en te beluisteren, maar zeker ook zelf te ervaren op welke manier AI je kan helpen, ook in je werk. Tegelijk is het ook je taak als compliance en/of integriteitsprofessional kritisch te zijn op wat je ziet gebeuren in je omgeving. Hebben we naast alle kansen ook alle risico’s op een rijtje?  

Over het algemeen ervaren wij dat het op organisatieniveau blokkeren van de toegang tot deze soort AI tools niet houdbaar is. Immers, medewerker willen het nu eenmaal gebruiken en schakelen daarvoor snel over naar andere (privé)apparaten, als de organisatie het verbiedt. Het lijkt ons veel verstandiger het gebruik binnen een aantal kaders juist wèl toe te staan en vooral te leren ‘along the way’. 

Mocht je willen sparren over het beheersen van integriteitsrisico’s, waaronder die op het vlak van AI, dan kun je contact opnemen met de compliance adviseurs van het Nederlands Compliance Instituut. We helpen je graag! 

Auteur

Afbeelding Ai, nog niet gelezen

Eric Schuiling

kennis- en programmamanager & senior compliance adviseur