Service of SURF
© 2025 SURF
Bundeling van vijf essays, geschreven door hbo-studenten Social Work. Zij volgden in studiejaar 2023/2024 een half jaar de minor Inclusiviteit in de stad aan de Haagse Hogeschool. In die minor zoomen we in op hedendaagse uitsluitingsmechanismen die bepaalde groepen in onze samenleving extra hard treffen. Het centrale thema van de essays is inclusiviteit. In elk essay is te zien hoe belangrijk dit onderwerp is voor de nieuwe generatie. De auteurs gaan in op de verschillende dimensies van inclusiviteit, variërend van uitsluiting door armoede, door culturele verschillen maar ook door het kiezen van het beroep sekswerk. Uitsluiting heeft een diep effect op het welzijn van mensen, op toegankelijkheid tot instituties en op sociale rechtvaardigheid.
De krappe arbeidsmarkt vraagt om een andere aanpakvan het instroombeleid. Om te kunnen zorgen voorvoldoende instroom moet HRM optimaal gebruikmaken vande diversiteit aan talenten en vermogens op de arbeidsmarkt; kiezen voor inclusiviteit.
Deze notitie betreft de gezamenlijke onderzoeksvisie van de onderzoeksgroep Welzijn en Empowerment. De onderzoeksgroep bestaat uit de lectoraten Jeugd en Samenleving, Dynamiek van de Stad en Empowerment & Professionalisering. Samen met de onderzoeksgroep Gezondheid & Zelfmanagement vormen wij het expertisecentrum De Gezonde Samenleving van de Faculteit Gezondheid, Sport en Welzijn van Hogeschool Inholland. Dit expertisecentrum verbindt domeinen als zorg, welzijn, sport en technologische innovatie in zorg en welzijn.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Motivatie Het versterken van de samenwerking tussen relevante lectoraten door het ontwikkelen van een multidisciplinaire onderzoeksagenda op het terrein van Arbeid in de brede zin van het woord. Hierdoor kan de thematiek rondom toegang tot en behoud van arbeid vanuit meerdere kanten worden aangevlogen én kan focus en massa worden gecreëerd voor onderzoeksprogrammering en –funding. Daardoor kunnen we als lectoraten een belangrijke rol te spelen bij vraagstukken die betrekking hebben op het duurzaam (weer) aan het werk gaan én duurzaam aan het werk blijven. Achtergrond Om als individu zelfstandig en volwaardig te kunnen deelnemen aan onze participatiemaatschappij, is het hebben van werk cruciaal. Werk is echter voor mensen met minder of onvoldoende arbeids-, persoonlijk-, sociaal-, en cultureel kapitaal en/of toegang tot hulpbronnen steeds minder vanzelfsprekend. Naast traditioneel kwetsbare groepen – zoals laagopgeleiden, mensen met een chronische aandoening en migranten - zijn er nieuwe categorieën, waaronder veel middelbaar en hoog opgeleiden, voor wie het lastig is/wordt structureel betaald werk te vinden. De oorzaak ligt voornamelijk bij de toenemende digitalisering en robotisering in combinatie met de flexibilisering van de arbeidsmarkt. Ook werk op academisch niveau, dat gebaseerd is op regels, bijvoorbeeld accountancy en rechtspraak, zal steeds vaker (deels) geautomatiseerd kunnen worden (Est et al. 2015, Went et al. 2015). Anderzijds zijn er sectoren, zoals techniek en ICT, die een steeds grotere behoefte hebben aan hoogopgeleid personeel en waar het lastig is om voldoende gekwalificeerde mensen te krijgen. Tot slot zien we in alle sectoren een toename van stress- en burn-out klachten, die deels gerelateerd zijn aan traditionele, functioneel ingerichte organisaties. Het bovenstaande biedt geen rooskleurig beeld voor grote groepen in de samenleving en vanuit een breed Platform Arbeid willen we de thema’s op het terrein van arbeid vanuit meerdere perspectieven benaderen en in samenhang beschouwen.