Dienst van SURF
© 2025 SURF
This paper presents the design and long-term study of BiebBeep, a large interactive touchscreen that has been developed with the aim to augment the information and social function of a library. BiebBeep displays user-generated and context-relevant content, such as information about local events and book trailers. The system’s distinctive feature is that people can add information to the screen themselves, such as tweets and Flickr photos, so that the library and its visitors can inform and connect with each other. For more than a year, the BiebBeep system has been iterated and studied in the library. The research approach presented is an exemplar of the study of a public screen in situ for long-term to best meet the demands for its actual use in present and future.
This video presents BiebBeep, an interactive touchscreen system that has been developed with the aim to support information and social services for the New Library in Almere, The Netherlands. The constantly updated information displayed on the interactive screen concerns not only the library itself, but also features happenings in the local area. The system's distinctive feature is that people can add information to the screen themselves, such as tweets, photos, local and cultural news announcements, so that the library and its visitors can inform and connect with each other. Over the course of almost one year, several studies were conducted, including focus group, interview- and observation-based studies that have motivated the functionality, and particularly the user-generated and localized content the system supports. Consequently, the services and functionality the system offers are aimed towards supporting Library 2.0, the next generation library.
MULTIFILE
The user experience of our daily interactions is increasingly shaped with the aid of AI, mostly as the output of recommendation engines. However, it is less common to present users with possibilities to navigate or adapt such output. In this paper we argue that adding such algorithmic controls can be a potent strategy to create explainable AI and to aid users in building adequate mental models of the system. We describe our efforts to create a pattern library for algorithmic controls: the algorithmic affordances pattern library. The library can aid in bridging research efforts to explore and evaluate algorithmic controls and emerging practices in commercial applications, therewith scaffolding a more evidence-based adoption of algorithmic controls in industry. A first version of the library suggested four distinct categories of algorithmic controls: feeding the algorithm, tuning algorithmic parameters, activating recommendation contexts, and navigating the recommendation space. In this paper we discuss these and reflect on how each of them could aid explainability. Based on this reflection, we unfold a sketch for a future research agenda. The paper also serves as an open invitation to the XAI community to strengthen our approach with things we missed so far.
MULTIFILE
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Physical rehabilitation programs revolve around the repetitive execution of exercises since it has been proven to lead to better rehabilitation results. Although beginning the motor (re)learning process early is paramount to obtain good recovery outcomes, patients do not normally see/experience any short-term improvement, which has a toll on their motivation. Therefore, patients find it difficult to stay engaged in seemingly mundane exercises, not only in terms of adhering to the rehabilitation program, but also in terms of proper execution of the movements. One way in which this motivation problem has been tackled is to employ games in the rehabilitation process. These games are designed to reward patients for performing the exercises correctly or regularly. The rewards can take many forms, for instance providing an experience that is engaging (fun), one that is aesthetically pleasing (appealing visual and aural feedback), or one that employs gamification elements such as points, badges, or achievements. However, even though some of these serious game systems are designed together with physiotherapists and with the patients’ needs in mind, many of them end up not being used consistently during physical rehabilitation past the first few sessions (i.e. novelty effect). Thus, in this project, we aim to 1) Identify, by means of literature reviews, focus groups, and interviews with the involved stakeholders, why this is happening, 2) Develop a set of guidelines for the successful deployment of serious games for rehabilitation, and 3) Develop an initial implementation process and ideas for potential serious games. In a follow-up application, we intend to build on this knowledge and apply it in the design of a (set of) serious game for rehabilitation to be deployed at one of the partners centers and conduct a longitudinal evaluation to measure the success of the application of the deployment guidelines.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.