Dienst van SURF
© 2025 SURF
In het werving- en selectieproces proberen organisaties in eerste instantie zoveel mogelijk geschikte kandidaten te laten solliciteren (een marketing/ branding probleem) om daaruit dan de meest geschikte kandidaat te kiezen (een selectieprobleem).Het is wettelijk verboden om bij het selecteren van kandidaten te discrimineren op kenmerken die niet relevant zijn voor de selectie (zoals huidskleur, geloof of leeftijd). Maar een eerlijk en rechtvaardig proces moet verder gaan dan de wet. Een ethische aanpak zorgt ervoor dat gelijk gesitueerde mensen gelijk behandeld worden, dat vooroordelen geen kans hebben, dat kandidaten met menswaardigheid en respect behandeld worden, dat de procedures en uitkomsten voor iedereen helder zijn, dat de kandidaat zinnige feedback krijg na het proces, en dat de voorspellingen over het toekomstige werksucces van een kandidaat daadwerkelijk kloppen.Voor elk van de fasen van werving- en selectie zijn er kunstmatige intelligentiesystemen op de markt die organisaties kunnen helpen bij het proces. Die technologieën hebben gevolgen voor wie er wel of niet worden geselecteerd en kunnen dus een impact hebben op de diversiteit van een organisatie.De diversiteit binnen een organisatie kan op drie manieren worden vergroot. Je kunt de bestaande bias uit het proces proberen te halen, je kunt barrières die ervoor zorgen dat alleen specifieke groepen kunnen of willen solliciteren wegnemen, en je kunt actief op zoek gaan naar kandidaten met een divers profiel.Technologie zou op drie manieren kunnen helpen bij het verminderen van bias binnen het proces. Irrelevante persoonskenmerken kunnen automatisch buiten beschouwing worden gelaten en je kunt een stuk makkelijker dan bij een menselijke recruiter meten op wat voor manier het systeem biased is. Ook zou technologie kunnen helpen bij het vindenvan nieuwe groepen kandidaten die eerder nog niet in beeld waren.De voordelen van het gebruik van kunstmatige intelligentie hebben daarnaast vooral te maken met efficiëntie. Delen van het proces kunnen worden geautomatiseerd, en de werkwijze kan meer uniform gemaakt. Het zijn daarom vooral organisaties die grote aantal kandidaten werven die op dit moment gebruik maken van kunstmatige intelligentie.Er kleven ook grote risico’s aan het gebruik van kunstmatige intelligentie binnen werving- en selectieprocessen. Omdat veel van de technologie uitgaat van de huidige (succesvolle) werknemers is er de kans dat je de (weinige diverse) status quo juist handhaaft. Het is nooit uit te sluiten dat er hele specifieke vormen van bias met betrekking tot bepaalde groepen in het systeem blijven zitten, en dit soort systemen kunnen sowieso slecht omgaan met individuen die op een of andere manier afwijken van de norm. Die bias die – ook na een zorgvuldige implementatie – overblijft is dan wel meteen systematisch en schaalt mee met de inzet van de technologie. Verder blijft het moeilijk om te valideren of de kunstmatige intelligentie die je inzet wel goed werkt. Tot slot hebben dit soort systemen veel data nodig. Dit kan op het gebied van privacy en de vereiste dataminimalisatie problemen opleveren.Je hoort vaak dat we ons geen zorgen hoeven te maken over de inzet van kunstmatige intelligentie binnen werving- en selectie. Het is immers voorlopig nog steeds de mens die de uiteindelijke beslissing neemt. Dit klopt (vooralsnog) misschien nog wel voor het aannemen van de kandidaat, maar is allang niet meer het geval voor de kandidaten die worden afgewezen. Daar is het vaak al de machine die kiest, zonder enige menselijke tussenkomst.Als je er toch voor kiest om kunstmatige intelligentiesystemen binnen werving- en selectieprocessen te implementeren, dan moet je dat op een heel intentionele manier doen. En met een scherpe blik op de achterliggende waarden. Dit onderzoek heeft gereedschap opgeleverd dat daarbij kan helpen. Met de AI in Recruitment (AIR) Discussietool kun je aan de hand van de volgende vijf vragen (en de bijbehorende deelvragen) komen tot een zo verantwoord mogelijke implementatie:1. Wat is voor jouw organisatie eerlijke en rechtvaardige werving en selectie?2. Hoe zit het met de benodigde data?3. Blijft de mens de baas over het proces?4. Is jouw organisatie en is de technologie onbevooroordeeld?5. Weet je zeker dat de technologie werkt en dat het blijft werken?
MULTIFILE
Mensen die moeite hebben met lezen en schrijven (laaggeletterden) zijn ondervertegenwoordigd in onderzoek, waardoor een belangrijke onderzoekspopulatie ontbreekt. Dit is een probleem, omdat zorgbeleid dan onvoldoende op hun behoeften wordt aangepast. Laaggeletterden hebben vaak een lage sociaal economische positie (SEP). Mensen met een lage SEP leven gemiddeld 4 jaar korter en 15 jaar in minder goed ervaren gezondheid vergeleken met mensen met een hoge SEP. Om laaggeletterden te betrekken in onderzoek, is het o.a. nodig om onderzoek toegankelijker te maken. Dit project draagt hieraan bij door de ontwikkeling van een toolbox voor toegankelijke (proefpersonen)informatie (pif) en toestemmingsverklaringen. We ontwikkelen in co-creatie met de doelgroep toegankelijke audiovisuele materialen die breed ingezet kunnen worden door (gezondheids)onderzoekers van (zorggerelateerde) instanties/bedrijven én kennisinstellingen voor de werving voor en informatieverstrekking over onderzoek. In de multidisciplinaire samenwerking met onze partners YURR.studio, Pharos, Stichting ABC, Stichting Crowdience, de HAN-Sterkplaats en de Academische Werkplaats Sterker op eigen benen (AW-SOEB) van Radboudumc stellen we de behoeften van de doelgroep centraal. Middels creatieve sessies en gebruikerservaringen wordt in een iteratief ontwerpende onderzoeksaanpak toegewerkt naar diverse ontwerpen van informatiebrieven en toestemmingsverklaringen, waarbij de visuele communicatie dragend is. Het ontwikkelproces biedt kennisontwikkeling en hands-on praktijkvoorbeelden voor designers en grafisch vormgevers in het toegankelijk maken van informatie. Als laaggeletterden beter bereikt worden d.m.v. de pif-toolbox, kunnen de inzichten van deze groep worden meegenomen. Dit zorgt voor een minder scheef beeld in onderzoek, waardoor (gezondheids)beleid zich beter kan richten op kwetsbare doelgroepen. Hiermee wordt een bijdrage geleverd aan het verkleinen van gezondheidsverschillen.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Communicatieprofessionals slagen er niet in adequaat om te gaan met beroering in de publieke sfeer, in het bijzonder als deze zich op sociale media afspeelt. Dat onvermogen betaalt zich vaak duur uit want leidt tot grote maatschappelijke problemen (‘issues’), vertrouwensverlies, hoge kosten, grillig beleid en andere onverkwikkelijkheden. Vandaar de behoefte onder professionals dergelijke beroering voor te zijn. Belangrijkste doel van dit project is de ontwikkeling van een leeromgeving die hen daartoe in staat stelt. Het vermogen de beroering op sociale media, voor zover mogelijk, te begrijpen en te beheersen, begint bij inzicht in hoe die beroering tot stand komt, zich ontwikkelt en het beste benaderd kan worden. Cruciaal hierbij is het besef dat men er vroeg bij moet zijn, nog voordat de onrust op sociale media zich tot een issue ontwikkelt. Daarna is het veelal te laat. Vandaar het enorme belang oog te hebben voor de subtiliteit en complexiteit van taal. Immers heel vaak staat er niet wat er staat of zegt men niet wat men bedoelt. Maar het herkennen van de juiste bedoeling is een buitengewoon lastig proces dat via traditionele vormen van monitoring veelal onvoldoende tot stand komt. Voor een adequate omgang met potentiële issues zou dat echter wel moeten. De mogelijkheden daartoe maken de kern uit van de in dit project voorgestelde vorm van discoursanalyse en daarop gebaseerde leeromgeving. Voor zowel die discoursanalyse als de leeromgeving wordt gebruik gemaakt van AI technieken. Die technieken maken de leeromgeving ‘smart’, dat wil zeggen vol mogelijkheden tot interactie, automatische feedback, visualisaties en geavanceerde vormen van kennisverwerving. AI technieken worden in dit project ook ingezet bij het doen van discoursanalyse. Deels gebeurt dat door de communicatieprofessional zelf, tijdens het leerproces. Al doende leert hij niet alleen over het publiek debat maar draagt ook bij aan kennis en analyse daarvan.