Dienst van SURF
© 2025 SURF
Commissarissen en toezichthouders zoeken naar de juiste balans en afstemming met het bestuur bij invulling van hun rol, zo blijkt uit in het najaar van 2010 gepresenteerde onderzoek ‘Iedere Raad van Commissarissen heeft zo zijn problemen’ van de Governance University.
Nieuwe digitale technieken, zoals big data en kunstmatige intelligentie, veroorzaken disruptie in diverse sectoren van de economie, bijvoorbeeld in de financiële sector. Omdat nieuwe toetreders zoals FinTechbedrijven een fundamenteel ander verdienmodel en bedrijfsvoering hanteren, vormt de disruptie ook een uitdaging voor hun toezichthouders en klanten. Enerzijds verwelkomen de toezichthouders en klanten de innovatie als de toetreders marktaandeel winnen van met name banken, anderzijds neemt het risico op marktincidenten in dat geval toe. Doorgaans krijgen de toetreders ruimte om te groeien. Toezichthouders lijken in een vroeg stadium van disruptie te vertrouwen op een vorm van zelfregulering, waarbij de toetreders zelf de hoofdrol krijgen in het voorkomen van marktincidenten door samen met hun toezichthouder en klanten standaarden te ontwikkelen die minimum kwaliteitseisen stellen aan een robuuste bedrijfsvoering (een belangrijk aandachtspunt van een centrale banken zoals de DNB) en toezien op een transparante en eerlijke klantbehandeling (belangrijk uitgangspunt voor toezichthouders als de AFM). In veel landen, waaronder ook in Nederland bevinden de FinTech-ondernemingen zich in het stadium van beginnende zelfregulering. De uitgangspunten van de toezichthouders zijn bekend; welke concrete veranderingen in de bedrijfsvoering van de FinTech bedrijven moeten doorvoeren om voldoende vertrouwen te verkrijgen van toezichthouders en klanten is echter nog niet duidelijk. Dit onderzoek richt op FinTech-ondernemingen die gespecialisserd zijn in het verschaffen van financiering aan het Nederlandse mkb. Uit gesprekken met deze toetreders, zelf mkb-bedrijven, blijkt dat zij worstelen met de wijze waarop zij standaarden moeten ontwikkelen. Wij richten ons derhalve op de volgende praktijkvraag: Wat moeten individuele non-bancaire mkb-financiers doen om samen met concullega’s standaarden te ontwikkelen om hun marktpositie te verbeteren? Deze standaarden zijn nodig zodat (potentiele) mkb-klanten een groter vertrouwen krijgen in de toetredende ondernemingen, een nieuwe deelsector die naast de banken ontstaat. Om de praktijkvraag te beantwoorden, ontwikkelen we kennis over de rol van mkb-ondernemingen en hun klanten in de ontwikkeling in regulering. Dit is vernieuwend.
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt.
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt. Daarom is het belangrijk dat bijvoorbeeld klanten en toezichthouders in de financiële sector een passende uitleg krijgen hoe een op AI gebaseerd besluit tot stand gekomen is. Bijvoorbeeld waarom een lening niet is toegekend of waarom een transactie is aangemerkt als mogelijk frauduleus. Uitlegbare AI (in het Engels Explainable AI ofwel XAI) is het onderzoeksveld dat streeft naar het inzichtelijk maken van ondoorzichtige AI. Dat start volgens ons met het in beeld krijgen wat voor soort uitleg in welke situatie voor welk type stakeholder vereist is bij toepassing van AI. Verder is het de vraag welke vormen van AI zich goed lenen voor uitleg, en welke XAI-oplossing het beste geschikt is om een uitleg te kunnen genereren. Wij hebben XAI gedefinieerd als een set van methoden en technieken om een stakeholder een passende uitleg te kunnen geven over het functioneren en/of de resultaten van een AI-oplossing op een zodanig manier dat die uitleg begrijpelijk is voor en tegemoet komt aan de zorgen van die stakeholder. Doel Het doel van het project is om in samenwerking met organisaties in de financiële sector praktijkgericht onderzoek te doen naar uitlegbaarheid en daarbij de randvoorwaarden van uitlegbaarheid in beeld te brengen. Dit bestaat enerzijds uit het helder krijgen van de stakeholders en welke uitleg zij verwachten en anderzijds hoe die uitleg het beste tot stand kan worden gebracht. Organisaties waarmee wordt samengewerkt zijn onder andere financiële dienstverleners en toezichthouders. Resultaten Uitlegbare AI binnen de financiële sector gedefinieerd. Raamwerk voor uitlegbare AI met type stakeholders en soorten uitleg voor de financiële sector. Dit raamwerk is uiteengezet in het whitepaper: XAI in the financial sector 'a conceptual framework for explainable AI'. De Hogeschool Utrecht heeft meegewerkt aan een verkennend onderzoek naar uitlegbaarheid bij AI met DNB, de AFM, de Nederlandse Vereniging van Banken en drie Nederlandse grootbanken. In dit onderzoek is het raamwerk van de Hogeschool Utrecht toegepast. Bekijk de resultaten van het onderzoek. Op basis van dit onderzoek is een paper ingediend en geaccepteerd op de 33e Benelux Conference on Artificial Intelligence. Principes en richtlijnen voor het ontwikkelen van AI-toepassingen binnen de financiële sector gelet op eisen van uitlegbaarheid De Hogeschool Utrecht heeft samen met consortiumpartners Floryn, Researchable en de Volksbank in een eenjarig project onderzoek gedaan naar aspecten die een rol spelen bij het implementeren van explainable AI. Als resultaat van dit onderzoek is een checklist gepubliceerd en een whitepaper waarin deze checklist uitgebreid wordt toegelicht. Daarnaast is een paper ingediend bij de HHAI2023 conferentie. Meer informatie over dit project is op deze pagina te vinden. Een subsidieaanvraag voor een tweejarig RAAK-mkb project is gehonoreerd. Dit project, FIN-X geheten, heeft tot doel hulpmiddelen te ontwikkelen die interne gebruikers van AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Meer informatie over dit project is op de volgende pagina te vinden. Looptijd 01 juni 2020 - 31 maart 2025 Aanpak Vanuit de Hogeschool Utrecht streven we naar praktijkgericht onderzoek en steken daarom het onderzoek naar XAI in op het niveau van use-cases. We willen per use-case in kaart brengen welke stakeholders behoefte hebben aan welke uitleg. Door deze aanpak kunnen we gericht vanuit de praktijk de link met de literatuur leggen en nieuwe inzichten rapporteren. Een voorbeeld van een use-case die wordt onderzocht is kredietverlening aan consumenten (consumptief krediet). Uiteindelijk werken we toe naar een raamwerk met bijbehorende principes en richtlijnen voor XAI toegespitst op de gehele financiële sector.” veranderen in: “Voorbeelden van use-cases die worden onderzocht zijn kredietverlening, klantacceptatie en fraudedetectie bij claimafhandeling. Uiteindelijk werken we toe naar tools voor XAI toegespitst op de gehele financiële sector. Financiële dienstverleners of andere partijen in het financiële ecosysteem die geïnteresseerd zijn in samenwerking met ons worden van harte uitgenodigd contact met ons op te nemen. Download het whitepaper whitepaper: XAI in the financial sector Gerelateerd project Dit project is gekoppeld aan het KIEM project Uitlegbare AI in de Financiële Sector, dat de opzet kan zijn voor een aanvraag voor vervolgonderzoek om uiteindelijk te komen tot een aanpak en hulpmiddelen voor uitlegbare AI.