Dienst van SURF
© 2025 SURF
Desinformatie is recent door het World Economic Forum aangeduid als één van de grootste bedreigingen van de westerse samenleving. Ironisch wellicht, want het WEF en Klaus Schwab worden juist heel vaak genoemd door complotdenkers als de leiders van de elite die het allemaal voor ons bepalen, die ons met microchips besturen, zoals we ook op de spandoeken bij de omgekeerde vlaggen langs de A7 bij Marum kunnen zien. Op de spandoeken worden rechtszaken aangekondigd tegen allerlei personen omdat die het publiek zouden hebben voorgelogen tijdens de coronapandemie. Het schijnt overigens een verdienmodel te zijn, want het zijn nog geen civiele rechtszaken, die worden pas aangespannen als er voldoende funding is binnengekomen.
LINK
De coronacrisis heeft de zwakke plekken in onze informatievoorziening pijnlijk blootgelegd: tijdens de crisis nam de verspreiding van nepnieuws enorm toe, en complottheorieën beleven hoogtij dagen. Hoe zorgen we als samenleving voor goed geïnformeerde burgers en hoe kunnen informatieprofessionals daarin een rol spelen?
Hoe herken je desinformatie? Welke skills heb je daar als jongere voor nodig en hoe kun je je ertegen wapenen? Een consortium van Europese organisaties wil hierbij helpen met het project SMILES, een nieuwe lesmethode waarbij docenten en bibliotheekprofessionals samenwerken om de mediawijsheid van leerlingen tussen de 12 en 15 jaar te vergroten. Een inkijkje in het project.
AI4debunk is een vierjarige EU-innovatieactie, gefinancierd door Horizon Europe, gewijd aan de bestrijding van desinformatie. Het project brengt 13 partners uit acht landen samen om burgers te empoweren met door AI aangedreven tools. Te midden van toenemende nepnieuws en propaganda streeft AI4Debunk naar het bevorderen van betrouwbaar online gedrag, in navolging van de oproep van de Europese Commissie voor een verstandige toepassing van AI.
De toename en verspreiding van fake nieuws is een thema dat internationaal veel aandacht krijgt. Online informatiemanipulatie zou de verkiezingen in maar liefst 18 landen negatief beïnvloed hebben. In welke mate laten we ons beïnvloeden door desinformatie en welke strategieën helpen om weerbaarder te worden? Binnen academische kringen heerst er verdeeldheid over het effect van gemanipuleerde informatie op het gedrag. Wel heerst er consensus over het feit dat het bevorderen van digitale geletterdheid cruciaal is om de weerbaarheid tegen desinformatie te verhogen. In Nederland hebben journalistiek-educatieve organisaties DROG en het Nederlands Instituut voor Beeld en Geluid afgelopen jaren een innovatief educatief aanbod voor diverse doelgroepen ontwikkeld gericht op het bevorderen van die digitale weerbaarheid. Zo is o.a. een game ontwikkeld, waarbij jongeren bewust fake nieuws maken om zo de werkingsmechanismen ervan te doorgronden. De game leunt op de inoculatie theorie (McGuire, 1961a, 1961b), die ervan uitgaat dat de toediening van het (nepnieuws)virus resulteert in meer antistoffen, en dus hogere weerbaarheid. Recent onderzoek door Roozenbeek en Van der Linden (2019) geeft bewijslast voor deze theorie en wijst op de positieve effecten van gamificatie. Gesteund door inzichten uit de gedragswetenschappen willen we in dit project nader onderzoeken welke interventies effectief zijn voor het verhogen van de digitale weerbaarheid tegen desinformatie bij jongeren tussen de 15 en 18 jaar. Deze doelgroep opgegroeid in het digitale tijdperk zou namelijk steeds meer moeite hebben om echt van nep te onderscheiden (Wineburg, S., McGrew, S., Breakstone, Joel and Ortega, T, 2016). Op basis van real life casestudies van DROG en het Instituut voor Beeld en Geluid zullen we een drietal interventie-strategieën testen bij de doelgroep jongeren (leeftijd 15 jaar tot 18) om zo meer gefundeerde inzichten te genereren over de effectiviteit van het aanbod en inzichten te genereren over het mogelijk verbeteren en aanscherpen daarvan.
Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in mediaorganisaties bij de automatische creatie, personalisatie, distributie en archivering van mediacontent. Dit gaat gepaard met vragen en bezorgdheid in de maatschappij en de mediasector zelf over verantwoord gebruik van AI. Zo zijn er zorgen over discriminatie van bepaalde groepen door bias in algoritmes, over toenemende polarisatie door de verspreiding van radicale content en desinformatie door algoritmes en over schending van privacy bij een niet transparante omgang met data. Veel mediaorganisaties worstelen met de vraag hoe ze verantwoord met AI-toepassingen om moeten gaan. Mediaorganisaties geven aan dat bestaande ethische instrumenten voor verantwoorde AI, zoals de EU “Ethics Guidelines for trustworthy AI” (European Commission, 2019) en de “AI Impact Assessment” (ECP, 2018) onvoldoende houvast bieden voor het ontwerp en de inzet van verantwoorde AI, omdat deze instrumenten niet specifiek zijn toegespitst op het mediadomein. Hierdoor worden deze ethische instrumenten nog nauwelijks toegepast in de mediasector, terwijl mediaorganisaties aangeven dat daar wel behoefte aan is. Het doel van dit project is om mediaorganisaties te ondersteunen en begeleiden bij het inbedden van verantwoorde AI in hun organisaties en bij het ontwerpen, ontwikkelen en inzetten van verantwoorde AI-toepassingen, door domeinspecifieke ethische instrumenten te ontwikkelen. Dit gebeurt aan de hand van drie praktijkcasussen die zijn aangedragen door mediaorganisaties: pluriforme aanbevelingssystemen, inclusieve spraakherkenningssystemen voor de Nederlandse taal en collaboratieve productie-ondersteuningssystemen. De ontwikkeling van de ethische instrumenten wordt uitgevoerd met een Research-through-Design aanpak met meerdere iteraties van informatie verzamelen, analyseren prototypen en testen. De beoogde resultaten van dit praktijkgerichte onderzoek zijn: 1) nieuwe kennis over het ontwerpen van verantwoorde AI in mediatoepassingen, 2) op media toegespitste ethische instrumenten, en 3) verandering in de deelnemende mediaorganisaties ten aanzien van verantwoorde AI door nauwe samenwerking met praktijkpartners in het onderzoek.