Service of SURF
© 2025 SURF
While the technical application domain seems to be to most established field for AI applications, the field is at the very beginning to identify and implement responsible and fair AI applications. Technical, non-user facing services indirectly model user behavior as a consequence of which unexpected issues of privacy, fairness and lack of autonomy may emerge. There is a need for design methods that take the potential impact of AI systems into account.
While the concept of Responsible Innovation is increasingly common among researchers and policy makers, it is still unknown what it means in a business context. This study aims to identify which aspects of Responsible Innovation are conceptually similar and dissimilar from social- and sustainable innovation. Our conceptual analysis is based on literature reviews of responsible-, social-, and sustainable innovation. The insights obtained are used for conceptualising Responsible Innovation in a business context. The main conclusion is that Responsible Innovation differs from social- and sustainable innovation as it: (1) also considers possible detrimental implications of innovation, (2) includes a mechanism for responding to uncertainties associated with innovation and (3) achieves a democratic governance of the innovation. However, achieving the latter will not be realistic in a business context. The results of this study are relevant for researchers, managers and policy makers who are interested in responsible innovation in the business context.
Deze casestudie geeft inzicht in verschillende soorten kennis die kenmerkend zijn voor applied design research. Er wordt onderscheid gemaakt tussen kennis over de huidige situatie, over wenselijke alternatieven en over effectieve oplossingen om daar te komen. Ofwel, kennis hoe het is, kennis over hoe het kan zijn en kennis over hoe het zal zijn als we effectieve oplossingen toepassen. Elk van deze soorten kennis heeft andere kwaliteitscriteria.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
The livability of the cities and attractiveness of our environment can be improved by smarter choices for mobility products and travel modes. A change from current car-dependent lifestyles towards the use of healthier and less polluted transport modes, such as cycling, is needed. With awareness campaigns, cycling facilities and cycle infrastructure, the use of the bicycle will be stimulated. But which campaigns are effective? Can we stimulate cycling by adding cycling facilities along the cycle path? How can we design the best cycle infrastructure for a region? And what impact does good cycle infrastructure have on the increase of cycling?To find answers for these questions and come up with a future approach to stimulate bicycle use, BUas is participating in the InterReg V NWE-project CHIPS; Cycle Highways Innovation for smarter People transport and Spatial planning. Together with the city of Tilburg and other partners from The Netherlands, Belgium, Germany and United Kingdom we explore and demonstrate infrastructural improvements and tackle crucial elements related to engaging users and successful promotion of cycle highways. BUas is responsible for the monitoring and evaluation of the project. To measure the impact and effectiveness of cycle highway innovations we use Cyclespex and Cycleprint.With Cyclespex a virtual living lab is created which we will use to test several readability and wayfinding measures for cycle infrastructure. Cyclespex gives us the opportunity to test different scenario’s in virtual reality that will help us to make decisions about the final solution that will be realized on the cycle highway. Cycleprint will be used to develop a monitoring dashboard where municipalities of cities can easily monitor and evaluate the local bicycle use.