Service of SURF
© 2025 SURF
Whitepaper: The use of AI is on the rise in the financial sector. Utilizing machine learning algorithms to make decisions and predictions based on the available data can be highly valuable. AI offers benefits to both financial service providers and its customers by improving service and reducing costs. Examples of AI use cases in the financial sector are: identity verification in client onboarding, transaction data analysis, fraud detection in claims management, anti-money laundering monitoring, price differentiation in car insurance, automated analysis of legal documents, and the processing of loan applications.
This white paper is the result of a research project by Hogeschool Utrecht, Floryn, Researchable, and De Volksbank in the period November 2021-November 2022. The research project was a KIEM project1 granted by the Taskforce for Applied Research SIA. The goal of the research project was to identify the aspects that play a role in the implementation of the explainability of artificial intelligence (AI) systems in the Dutch financial sector. In this white paper, we present a checklist of the aspects that we derived from this research. The checklist contains checkpoints and related questions that need consideration to make explainability-related choices in different stages of the AI lifecycle. The goal of the checklist is to give designers and developers of AI systems a tool to ensure the AI system will give proper and meaningful explanations to each stakeholder.
MULTIFILE
Explainable artificial intelligence (xAI) is seen as a solution to making AI systems less of a “black box”. It is essential to ensure transparency, fairness, and accountability – which are especially paramount in the financial sector. The aim of this study was a preliminary investigation of the perspectives of supervisory authorities and regulated entities regarding the application of xAI in the financial sector. Three use cases (consumer credit, credit risk, and anti-money laundering) were examined using semi-structured interviews at three banks and two supervisory authorities in the Netherlands. We found that for the investigated use cases a disparity exists between supervisory authorities and banks regarding the desired scope of explainability of AI systems. We argue that the financial sector could benefit from clear differentiation between technical AI (model) explainability requirements and explainability requirements of the broader AI system in relation to applicable laws and regulations.
LINK
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt. Daarom is het belangrijk dat bijvoorbeeld klanten en toezichthouders in de financiële sector een passende uitleg krijgen hoe een op AI gebaseerd besluit tot stand gekomen is. Bijvoorbeeld waarom een lening niet is toegekend of waarom een transactie is aangemerkt als mogelijk frauduleus. Uitlegbare AI (in het Engels Explainable AI ofwel XAI) is het onderzoeksveld dat streeft naar het inzichtelijk maken van ondoorzichtige AI. Dat start volgens ons met het in beeld krijgen wat voor soort uitleg in welke situatie voor welk type stakeholder vereist is bij toepassing van AI. Verder is het de vraag welke vormen van AI zich goed lenen voor uitleg, en welke XAI-oplossing het beste geschikt is om een uitleg te kunnen genereren. Wij hebben XAI gedefinieerd als een set van methoden en technieken om een stakeholder een passende uitleg te kunnen geven over het functioneren en/of de resultaten van een AI-oplossing op een zodanig manier dat die uitleg begrijpelijk is voor en tegemoet komt aan de zorgen van die stakeholder. Doel Het doel van het project is om in samenwerking met organisaties in de financiële sector praktijkgericht onderzoek te doen naar uitlegbaarheid en daarbij de randvoorwaarden van uitlegbaarheid in beeld te brengen. Dit bestaat enerzijds uit het helder krijgen van de stakeholders en welke uitleg zij verwachten en anderzijds hoe die uitleg het beste tot stand kan worden gebracht. Organisaties waarmee wordt samengewerkt zijn onder andere financiële dienstverleners en toezichthouders. Resultaten Uitlegbare AI binnen de financiële sector gedefinieerd. Raamwerk voor uitlegbare AI met type stakeholders en soorten uitleg voor de financiële sector. Dit raamwerk is uiteengezet in het whitepaper: XAI in the financial sector 'a conceptual framework for explainable AI'. De Hogeschool Utrecht heeft meegewerkt aan een verkennend onderzoek naar uitlegbaarheid bij AI met DNB, de AFM, de Nederlandse Vereniging van Banken en drie Nederlandse grootbanken. In dit onderzoek is het raamwerk van de Hogeschool Utrecht toegepast. Bekijk de resultaten van het onderzoek. Op basis van dit onderzoek is een paper ingediend en geaccepteerd op de 33e Benelux Conference on Artificial Intelligence. Principes en richtlijnen voor het ontwikkelen van AI-toepassingen binnen de financiële sector gelet op eisen van uitlegbaarheid De Hogeschool Utrecht heeft samen met consortiumpartners Floryn, Researchable en de Volksbank in een eenjarig project onderzoek gedaan naar aspecten die een rol spelen bij het implementeren van explainable AI. Als resultaat van dit onderzoek is een checklist gepubliceerd en een whitepaper waarin deze checklist uitgebreid wordt toegelicht. Daarnaast is een paper ingediend bij de HHAI2023 conferentie. Meer informatie over dit project is op deze pagina te vinden. Een subsidieaanvraag voor een tweejarig RAAK-mkb project is gehonoreerd. Dit project, FIN-X geheten, heeft tot doel hulpmiddelen te ontwikkelen die interne gebruikers van AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Meer informatie over dit project is op de volgende pagina te vinden. Looptijd 01 juni 2020 - 31 maart 2025 Aanpak Vanuit de Hogeschool Utrecht streven we naar praktijkgericht onderzoek en steken daarom het onderzoek naar XAI in op het niveau van use-cases. We willen per use-case in kaart brengen welke stakeholders behoefte hebben aan welke uitleg. Door deze aanpak kunnen we gericht vanuit de praktijk de link met de literatuur leggen en nieuwe inzichten rapporteren. Een voorbeeld van een use-case die wordt onderzocht is kredietverlening aan consumenten (consumptief krediet). Uiteindelijk werken we toe naar een raamwerk met bijbehorende principes en richtlijnen voor XAI toegespitst op de gehele financiële sector.” veranderen in: “Voorbeelden van use-cases die worden onderzocht zijn kredietverlening, klantacceptatie en fraudedetectie bij claimafhandeling. Uiteindelijk werken we toe naar tools voor XAI toegespitst op de gehele financiële sector. Financiële dienstverleners of andere partijen in het financiële ecosysteem die geïnteresseerd zijn in samenwerking met ons worden van harte uitgenodigd contact met ons op te nemen. Download het whitepaper whitepaper: XAI in the financial sector Gerelateerd project Dit project is gekoppeld aan het KIEM project Uitlegbare AI in de Financiële Sector, dat de opzet kan zijn voor een aanvraag voor vervolgonderzoek om uiteindelijk te komen tot een aanpak en hulpmiddelen voor uitlegbare AI.
Toepassingen gebaseerd op artificiële intelligentie (AI) worden steeds vaker ingezet voor het maken van keuzes en besluiten. Deze toepassingen worden echter ook steeds complexer. Het is in sommige gevallen niet of moeilijk na te gaan hoe een algoritme tot een besluit is gekomen. Wat de AI doet is als het ware ondoorzichtig. Dit geldt ook in de financiële sector, terwijl juist in deze sector vertrouwen een grote rol speelt. Daarom is het belangrijk dat bijvoorbeeld klanten en toezichthouders in de financiële sector een passende uitleg krijgen hoe een op AI gebaseerd besluit tot stand gekomen is. Bijvoorbeeld waarom een lening niet is toegekend of waarom een transactie is aangemerkt als mogelijk frauduleus. Uitlegbare AI (in het Engels Explainable AI ofwel XAI) is het onderzoeksveld dat streeft naar het inzichtelijk maken van ondoorzichtige AI. Dat start volgens ons met het in beeld krijgen wat voor soort uitleg in welke situatie voor welk type stakeholder vereist is bij toepassing van AI. Verder is het de vraag welke vormen van AI zich goed lenen voor uitleg, en welke XAI-oplossing het beste geschikt is om een uitleg te kunnen genereren. Wij hebben XAI gedefinieerd als een set van methoden en technieken om een stakeholder een passende uitleg te kunnen geven over het functioneren en/of de resultaten van een AI-oplossing op een zodanig manier dat die uitleg begrijpelijk is voor en tegemoet komt aan de zorgen van die stakeholder. Doel Het doel van het project is om in samenwerking met organisaties in de financiële sector praktijkgericht onderzoek te doen naar uitlegbaarheid en daarbij de randvoorwaarden van uitlegbaarheid in beeld te brengen. Dit bestaat enerzijds uit het helder krijgen van de stakeholders en welke uitleg zij verwachten en anderzijds hoe die uitleg het beste tot stand kan worden gebracht. Organisaties waarmee wordt samengewerkt zijn onder andere financiële dienstverleners en toezichthouders. Resultaten Raamwerk voor uitlegbare AI met type stakeholders en soorten uitleg voor de financiële sector. Dit raamwerk is uiteengezet in het whitepaper: XAI in the financial sector 'a conceptual framework for explainable AI'. De Hogeschool Utrecht heeft meegewerkt aan een verkennend onderzoek naar uitlegbaarheid bij AI met DNB, de AFM, de Nederlandse Vereniging van Banken en drie Nederlandse grootbanken. In dit onderzoek is het raamwerk van de Hogeschool Utrecht toegepast. Bekijk de resultaten van het onderzoek. Op basis van dit onderzoek is een paper ingediend en geaccepteerd op de 33e Benelux Conference on Artificial Intelligence. De Hogeschool Utrecht heeft samen met consortiumpartners Floryn, Researchable en de Volksbank in een eenjarig project onderzoek gedaan naar aspecten die een rol spelen bij het implementeren van explainable AI. Als resultaat van dit onderzoek is een checklist gepubliceerd en een whitepaper waarin deze checklist uitgebreid wordt toegelicht. Daarnaast is een paper ingediend bij de HHAI2023 conferentie. Meer informatie over dit project is op deze pagina te vinden. Een subsidieaanvraag voor een tweejarig RAAK-mkb project is gehonoreerd. Dit project, FIN-X geheten, heeft tot doel hulpmiddelen te ontwikkelen die interne gebruikers van AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Meer informatie over dit project is op de volgende pagina te vinden. In samenwerking met de Copenhagen Business School en het Verbond van Verzekeraars heeft de Hogeschool Utrecht in 2023 onderzoek gedaan naar de rol van explainable AI bij fraudedetectie van schadeclaims bij verzekeraars. De resultaten van het onderzoek zijn vastgelegd in dit Whitepaper. De belangrijkste conclusie uit het onderzoek is dat de implementatie van AI bij fraudedetectie een businesstransformatie is met veel ethische en organisatorische overwegingen. De uitlegbaarheid van het AI-systeem wordt als cruciaal gezien, zowel vanuit ethisch oogpunt (als onderdeel van het transparantiebeginsel), als vanuit praktisch oogpunt (als middel om vertrouwen en acceptatie te winnen van interne belanghebbenden, en voor een goede samenwerking tussen mens en machine). De praktische implementatie van explainable AI is nog steeds een punt van discussie en onderzoek in de sector. Looptijd 01 juni 2020 - 31 maart 2025 Aanpak Vanuit de Hogeschool Utrecht streven we naar praktijkgericht onderzoek en steken daarom het onderzoek naar XAI in op het niveau van use-cases. We willen per use-case in kaart brengen welke stakeholders behoefte hebben aan welke uitleg. Door deze aanpak kunnen we gericht vanuit de praktijk de link met de literatuur leggen en nieuwe inzichten rapporteren. Een voorbeeld van een use-case die wordt onderzocht is kredietverlening aan consumenten (consumptief krediet). Uiteindelijk werken we toe naar een raamwerk met bijbehorende principes en richtlijnen voor XAI toegespitst op de gehele financiële sector.” veranderen in: “Voorbeelden van use-cases die worden onderzocht zijn kredietverlening, klantacceptatie en fraudedetectie bij claimafhandeling. Uiteindelijk werken we toe naar tools voor XAI toegespitst op de gehele financiële sector. Financiële dienstverleners of andere partijen in het financiële ecosysteem die geïnteresseerd zijn in samenwerking met ons worden van harte uitgenodigd contact met ons op te nemen. Download het whitepaper whitepaper: XAI in the financial sector Gerelateerd project Dit project is gekoppeld aan het KIEM project Uitlegbare AI in de Financiële Sector, dat de opzet kan zijn voor een aanvraag voor vervolgonderzoek om uiteindelijk te komen tot een aanpak en hulpmiddelen voor uitlegbare AI.