Researching the impact of digital technologies @ Rathenau Instituut
Social media | Design Research | Inclusivity Online | AI
| Pronouns | he/him |
| Website | https://wouternieuwenhuizen.nl |
| Bluesky | https://bsky.app/profile/wouter-n.bsky.social |
Researching the impact of digital technologies @ Rathenau Instituut
Social media | Design Research | Inclusivity Online | AI
| Pronouns | he/him |
| Website | https://wouternieuwenhuizen.nl |
| Bluesky | https://bsky.app/profile/wouter-n.bsky.social |
Wat zijn de aanpassingen in de gewichten van aanbevelingsalgoritmen? Welke signalen nemen ze mee? En hoe passen ze hun bedrijfsregels aan? De sociale mediaplatformen zijn de enige die dit weten.
Ook zien we dat bepaalde soort inhoud online meer wordt versterkt dan andere. Dat roept vragen op over de bias van aanbevelingsalgoritmen. Geen enkel algoritme is neutraal, ook de chronologische tijdlijn niet. Maar inzicht in die bias is moeilijk te verkrijgen.
Vorige week hielden we een Technische Briefing voor de Tweede Kamercommissie Digitale Zaken ( @barbarakathmann
Queeny-Aimée Rajkowski, Jantine Zwinkels en Sarah El Boujdaini waren aanwezig).
"Alleen platformen weten hoe ze data in hun aanbevelingsalgoritmen wegen. Voor buitenstaanders is dit niet te achterhalen. Platformen zien dit als hun bedrijfsgeheim", vertelde ik de Tweede Kamer.
Wat we missen is continue monitoring van de effecten van hun ontwerpkeuzes.
Kwaadwillenden verzenden bijvoorbeeld met nepaccounts bijna gelijktijdig dezelfde berichten, betalen influencers om een boodschap te verspreiden en liften mee op populaire hashtags. Zo zorgen ze dat specifieke inhoud wordt versterkt.
Het inmengingsinstrumentarium is voor iedereen beschikbaar.
Het is aan platformen om meer informatie publiekelijk te delen, en hun maatschappelijke verantwoordelijkheid te nemen.
De Tweede Kamer kan beginnen met alle grote platformen, via de Minister, verzoeken om openbare evaluaties te delen van wat er zich op hun platform allemaal heeft afgespeeld rondom de verkiezingen.
Lees onze brief aan de Tweede Kamer hier: https://www.rathenau.nl/nl/democratische-controle-op-verkiezingsdata.
3/3
Come redesign online spaces with us at Society 5.0 Festival in Amsterdam! We're there today and tomorrow, sharing insights from our project Inclusive online.
The choices designers make when building apps and platforms often feel self-evident, as if the internet is simply meant to work the way it does now. But that’s not the case.
Interested in this research? Check out the English summary here or send me a message!
Can we imagine a world in which content moderation feels fair and humane? The Human in the loop speculative prototype is designed with a more human process in mind. The prototype provides users with transparency about the content moderation decision-making process.
It provides insight into why content has been moderated and offers the
possibility to discuss this with a content moderator via a video call. In this way, it directly responds to the need for transparency around content moderation.