Service of SURF
© 2025 SURF
Vorig jaar op 21 april 2013 kwam RTL Nieuws met het volgende bericht: “Grootschalige fraude Bulgaren met toeslagen”. Wat was er aan de hand? In Rotterdam bleken Bulgaren zich in te schrijven met een identiteitsbewijs en een vals huurcontract bij het loket burgerzaken, op basis waarvan ze meteen een Burgerservicenummer kregen toegekend. Deze Bulgaren waren in Bulgarije geronseld om zich hier in te schrijven en na inschrijving meteen weer terug te gaan. Natuurlijk niet voordat het Burgerservicenummer, tegen een kleine vergoeding, was overgedragen aan een bende fraudeurs. Deze maakte meteen een DigiD aan en vroeg daarmee, met terugwerkende kracht, huur- en zorgtoeslag aan. Bedragen tot soms wel achtduizend euro in één keer. Deze toeslagen worden door de belastingdienst meteen uitbetaald en controle vindt meestal pas achteraf plaats. Deze vorm van fraude is mogelijk gemaakt doordat processen en informatie(systemen) voor inschrijving als burger, aanvragen van toeslagen, betaling en controle over verschillende organisaties lopen. Hierdoor is er niet voldoende transparantie en heeft niemand een duidelijk overzicht met betrekking tot het functioneren van het proces.
MULTIFILE
Politie, Openbaar Ministerie, wetenschap en onderwijs vinden elkaar in het project Follow The Money. Dit project ging begin dit jaar van start. In Follow The Money staat innovatie in het opsporen van illegale geldstromen en fraude rondom de georganiseerde hennepteelt centraal. De politie werkt in het project samen met het Openbaar Ministerie, de Universiteit Maastricht en Zuyd Hogeschool. Vijf studenten zijn vanuit het iLab met diverse onderzoeken binnen het project aan de slag gegaan: “Dit project gaat ons verder brengen.”
LINK
Bij onderzoek naar incidenten als fraude en handel met voorkennis is digitale informatie onmisbaar. Het selecteren, verwerken en doorzoeken van deze informatie wordt 'e-discovery' genoemd. Er zijn diverse zaken waar een bedrijf dat gegevens in de cloud wil opslaan op moet letten ten aanzien van e-discovery, bijvoorbeeld bestandskenmerken, snelheid en bestandsformaten, het land waar de gegevens worden opgeslagen en authenticatie.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar.Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden.Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
De maatschappelijke discussies over de invloed van AI op ons leven tieren welig. De terugkerende vraag is of AI-toepassingen – en dan vooral recommendersystemen – een dreiging of een redding zijn. De impact van het kiezen van een film voor vanavond, met behulp van Netflix' recommendersysteem, is nog beperkt. De impact van datingsites, navigatiesystemen en sociale media – allemaal systemen die met algoritmes informatie filteren of keuzes aanraden – is al groter. De impact van recommendersystemen in bijvoorbeeld de zorg, bij werving en selectie, fraudedetectie, en beoordelingen van hypotheekaanvragen is enorm, zowel op individueel als op maatschappelijk niveau. Het is daarom urgent dat juist recommendersystemen volgens de waarden van Responsible AI ontworpen worden: veilig, eerlijk, betrouwbaar, inclusief, transparant en controleerbaar. Om op een goede manier Responsible AI te ontwerpen moeten technische, contextuele én interactievraagstukken worden opgelost. Op het technische en maatschappelijke niveau is al veel vooruitgang geboekt, respectievelijk door onderzoek naar algoritmen die waarden als inclusiviteit in hun berekening meenemen, en door de ontwikkeling van wettelijke kaders. Over implementatie op interactieniveau bestaat daarentegen nog weinig concrete kennis. Bekend is dat gebruikers die interactiemogelijkheden hebben om een algoritme bij te sturen of aan te vullen, meer transparantie en betrouwbaarheid ervaren. Echter, slecht ontworpen interactiemogelijkheden, of een mismatch tussen interactie en context kosten juist tijd, veroorzaken mentale overbelasting, frustratie, en een gevoel van incompetentie. Ze verhullen eerder dan dat ze tot transparantie leiden. Het ontbreekt ontwerpers van interfaces (UX/UI designers) aan systematische concrete kennis over deze interactiemogelijkheden, hun toepasbaarheid, en de ethische grenzen. Dat beperkt hun mogelijkheid om op interactieniveau aan Responsible AI bij te dragen. Ze willen daarom graag een pattern library van interactiemogelijkheden, geannoteerd met onderzoek over de werking en inzetbaarheid. Dit bestaat nu niet en met dit project willen we een substantiële bijdrage leveren aan de ontwikkeling ervan.
Digitale Held: Onderzoek naar serious gaming voor het vergroten van de kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren. Onderzoek uit 2022 laat zien dat Nederlandse jongeren en jongvolwassenen bovengemiddeld vaak slachtoffer van phishing zijn en lopen daardoor vaker financiële schade op. Daarnaast onderschatten jongeren de kans dat zij slachtoffer worden van vormen van cybercriminaliteit als identiteitsfraude en gegevensverlies door een datalek . Ook blijkt uit onderzoek dat nagenoeg de helft (47%) van de jongeren het eigen niveau van digitale vaardigheden overschat. Daarbij herkent een groot deel van de jongeren onveilig onlinegedrag minder goed en zijn ze sceptisch over wat ze van ouders en leraren kunnen leren . Dit leidt onder andere tot een stijging van het aantal kwetsbare jongeren die onder bewind staan. Daarbij lijkt een aanzienlijk deel van deze groep jongeren onder bewind een licht verstandelijke beperking (LVB) te hebben. Er is echter weinig bekend over de digitale vaardigheden en de inzichten op het eigen internetgedrag van deze jongeren met een LVB en schulden. Gezien de geringe tijd die bewindvoerders hebben om de zaken van deze personen te behartigen, is er geen tijd voor het aanleren van kritische digitale vaardigheden. Binnen het project wordt onderzoek gedaan naar het vergroten van kritische digitale vaardigheden en digitaal bewustzijn bij kwetsbare jongeren, waaronder jongeren met een LVB aansluitend op de missie Gezondheid en zorg, door de toepassing van serious gaming, bite-sized learning en sleuteltechnologie als artificial intelligence (AI). In het project werkt het Lectoraat Digitale Transformatie van de Hanzehogeschool Groningen samen met twee MKB-ondernemingen, ProBewind B.V. en de startup FamilyPay B.V., en met de Stichting Humanitas DMH. Daarnaast participeert het Innovatiehuis Politie Noord-Nederland als overige partij. Het project is een uitbreiding van een bestaand netwerk, waarbij nu verder onderzoek wordt uitgevoerd met publieke instellingen.