Dienst van SURF
© 2025 SURF
1e en 2e alinea column: Het is vakantie. De 'Tomtom', ik bedoel hier dan navigatie systemen mee en niet letterlijk producten van het gelijknamige bedrijf, zal dus best veel gebruikt worden in de vele buitenlanden die Nederlanders per auto en fiets plegen te bezoeken. De TomTom is een eigenaardig ding. Aan de ene kant wijst ie de weg. En dat is gemakkelijk. Aan de andere kant wijst ie doorgaans iedereen dezelfde weg met als gevolg dat één weg heel druk is en de alternatieve routes naar het zelfde reisdoel heel leeg. De tomtom creëert daarmee een bias om met zijn allen dezelfde oplossingen langs de zelfde wegen te zoeken. TomTom live verandert daar niets aan.
LINK
Veel bedrijven stemmen hun communicatie en interactie met de consument af door te segmenteren op kanaalgebruik. In deze studie tonen wij aan dat een focus op kanalen maar zeer beperkt bruikbaar is. Deze beperking is een logisch gevolg van het feit dat de meeste consumenten meerdere kanalen gebruiken, het online kanaal ondertussen veel verschillende vormen kent en kanalen steeds meer integreren. Het vaak gemaakte onderscheid online en offline verliest hierdoor zijn relevantie. In deze studie lichten wij toe hoe wij verschillende navigatie-strategieën hebben geïdentificeerd die aangeven hoe consumenten hun weg vinden in het kanalenlandschap in de verschillende fasen rondom een aankoop. Door kanaalgebruik te verklaren vanuit deze navigatie-strategieën ontstaat een stabiel en eenduidige model dat organisaties zal helpen een effectieve multi-channel strategie te formuleren
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De docent/onderzoeker rol is de belangrijkste, echter ook minst goed gefaciliteerde, rol binnen de hogeschool. De docent/onderzoeker moet continue schakelen tussen de onderwijs-urgentie (teamleider) en de langere termijn onderzoeksprioriteit (lector). De docent/onderzoeker heeft praktisch gezien twee werkgevers. Het RAAK-Postdoc project HENC beoogd een pragmatische grondlegger te ontwikkelen voor de duurzame inbedding van PhDs in deze docent/onderzoeker rol. Henk Kortier fungeert hierbij als initiator, (mede) ontwikkelaar en eerste (proef-)persoon. Het onderzoek dat onderdeel vormt van deze aanvraag beoogt de valorisatie van het op 09-feb-2018 afgesloten biomedisch wetenschappelijk PhD onderzoek van Henk Kortier. De modulaire robotica technieken die Henk gaat door ontwikkelen hebben spin-off naar de drie Saxion onderzoek domeinen Area’s & Living (drones), Smart Industry (grondrobots) en Health & Wellbeing (opruimrobot). De onderwijsactiviteiten richten zich op een, nieuw te ontwikkelen, module binnen de opleiding mechatronica, met als doel concrete invulling te geven aan de noodzakelijke vernieuwing en integratie van onderzoek en onderwijs. Met het onderwijs en onderzoeksteam van mechatronica is hierover op 23 april jl. een inventarisatie workshop gehouden, ondersteund door de teamleider onderwijs en lector. Door een matrix-analyse zijn de belangrijkste punten gedefinieerd en worden de belangrijkste redenen voor PhD om als docent/onderzoeker te blijven fungeren ontwikkeld, getest, uitgevoerd en uitgerold. Op deze wijze geeft het project concreet invulling aan het Saxion beleid om PhDs te kunnen laten werken aan het onderzoek en via onderwijsvernieuwing de resultaten naar onderwijs vloeien. Naast de onderwijs-onderzoeks integratie component wordt er binnen de module een lespakket ontwikkeld ter behoeve van het autonoom functionerende robots. Dit pakket wordt ontwikkeld vanuit zowel een operator als engineering oogpunt en zal derhalve de opleiding mechatronica overstijgen. Dit maakt het pakket breed inzetbaar binnen de verschillende opleidingen van de academie Life Science, engineering and Design en Creative Technologievan Saxion maar ook voor hogescholen elders.