Service of SURF
© 2025 SURF
Whitepaper: The use of AI is on the rise in the financial sector. Utilizing machine learning algorithms to make decisions and predictions based on the available data can be highly valuable. AI offers benefits to both financial service providers and its customers by improving service and reducing costs. Examples of AI use cases in the financial sector are: identity verification in client onboarding, transaction data analysis, fraud detection in claims management, anti-money laundering monitoring, price differentiation in car insurance, automated analysis of legal documents, and the processing of loan applications.
One aspect of a responsible application of Artificial Intelligence (AI) is ensuring that the operation and outputs of an AI system are understandable for non-technical users, who need to consider its recommendations in their decision making. The importance of explainable AI (XAI) is widely acknowledged; however, its practical implementation is not straightforward. In particular, it is still unclear what the requirements are of non-technical users from explanations, i.e. what makes an explanation meaningful. In this paper, we synthesize insights on meaningful explanations from a literature study and two use cases in the financial sector. We identified 30 components of meaningfulness in XAI literature. In addition, we report three themes associated with explanation needs that were central to the users in our use cases, but are not prominently described in literature: actionability, coherent narratives and context. Our results highlight the importance of narrowing the gap between theoretical and applied responsible AI.
MULTIFILE
Recommender systems are widely used in today’s society, but many of them do not meet users’ needs and therefore fail to reach their full potential. Without careful consideration, such systems can interfere with the natural decision-making process, resulting in the disregard for recommendations provided. Therefore, it is vital to take into account multiple factors, including expertise, time and risk associated with decisions, as well as the system’s context to identify suitable affordances. Furthermore, it is important to consider the algorithmic and digital literacy of the users. This analysis could reveal innovative design opportunities, like combining a recommender system with a digital agent. As a result, it may meet interpersonal needs and facilitate a more natural interaction with the system. Implementing this combination in a digital marketplace could be a promising way to empower users towards an independent life.
LINK
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.
Bedrijven, waaronder telecomproviders, vertrouwen steeds meer op complexe AI-systemen. Het gebrek aan interpreteerbaarheid dat zulke systemen vaak introduceren zorgt voor veel uitdagingen om het onderliggende besluitvormingsproces te begrijpen. Vertrouwen in AI-systemen is belangrijk omdat het bijdraagt aan acceptatie en adoptie onder gebruikers. Het vakgebied Explainable AI (XAI) speelt hierbij een cruciale rol door transparantie en uitleg aan gebruikers te bieden voor de beslissingen en werking van zulke systemen.Doel Bij AI-systemen zijn gewoonlijk verschillende stakeholders betrokken, die elk een unieke rol hebben met betrekking tot deze systemen. Als gevolg hiervan varieert de behoefte voor uitleg afhankelijk van wie het systeem gebruikt. Het primaire doel van dit onderzoek is het genereren en evalueren van op stakeholder toegesneden uitleg voor use cases in de telecomindustrie. Door best practices te identificeren, nieuwe explainability tools te ontwikkelen en deze toe te passen in verschillende use cases, is het doel om waardevolle inzichten op te doen. Resultaten Resultaten omvatten het identificeren van de huidige best practices voor het genereren van betekenisvolle uitleg en het ontwikkelen van op maat gemaakte uitleg voor belanghebbenden voor telecom use-cases. Looptijd 01 september 2023 - 30 augustus 2027 Aanpak Het onderzoek begint met een literatuurstudie, gevolgd door de identificatie van mogelijke use-cases en het in kaart brengen van de behoeften van stakeholders. Vervolgens zullen prototypes worden ontwikkeld en hun vermogen om betekenisvolle uitleg te geven, zal worden geëvalueerd.
Uitlegbaarheid van de uitkomsten en werking van artificiële intelligentie (AI) toepassingen is een belangrijke voorwaarde om vertrouwen van consumenten en maatschappij in AI-toepassingen te borgen, zeker in de financiële sector. In dit project ontwikkelen we hulpmiddelen om uitkomsten van complexe AI-toepassingen om te zetten naar een begrijpelijke uitleg voor medewerkers zoals klantacceptanten en schadebehandelaren. Dat is van belang omdat deze medewerkers met de klant communiceren en in staat moeten zijn om die een uitleg te geven bijvoorbeeld als de schadeclaim van een klant wordt afgewezen, omdat die door een AI-toepassing als frauduleus is bestempeld. Doel Het project heeft tot doel een concrete bijdrage te leveren aan de implementatie van effectieve en mensgerichte AI-toepassingen door hulpmiddelen te ontwikkelen die interne gebruikers van die AI-toepassingen meer en beter inzicht geven in de werking en uitkomsten ervan. Resultaten Handreikingen (in de vorm van tools en instrumenten) die richting geven en ondersteunen bij het genereren, communiceren en evalueren van uitleg. De primaire doelgroep van de handreikingen zijn ontwerpers en ontwikkelaars van AI- en XAI-toepassingen. Looptijd 31 januari 2023 - 31 maart 2025 Aanpak Het project volgt een design science aanpak waarbij op basis van behoeften uit de praktijk en al beschikbare kennis artefacten worden ontwikkeld. De artefacten in dit project zijn de handreikingen die bij resultaten zijn beschreven. Subsidieverstrekker FIN-X is een project dat subsidie ontvangt van het Nationaal Regieorgaan Praktijkgericht Onderzoek SIA in het kader van de RAAK-mkb regeling september 2022 met als dossiernummer RAAK.MKB17.003