Wouter

@woutern
48 Followers
111 Following
90 Posts

Researching the impact of digital technologies @ Rathenau Instituut

Social media | Design Research | Inclusivity Online | AI

Pronounshe/him
Websitehttps://wouternieuwenhuizen.nl
Blueskyhttps://bsky.app/profile/wouter-n.bsky.social
Kunstmatige intelligentie neemt geen werk over. Bedrijven en managers die ervoor kiezen om (delen van) menselijk werk te vervangen door de output van taalmodellen, die nemen werk over. Wees alert op de actor. Een taalmodel ontslaat jou niet, dat doet je baas.
Om de risico's op inmengingsactiviteiten te verkleinen, moeten we aan de slag. In drie richtingen: het platformontwerp veranderen, de informatiepositie van wetgevers, toezichthouders en onafhankelijke onderzoekers versterken, en de weerbaarheid van de samenleving vergroten.

Wat zijn de aanpassingen in de gewichten van aanbevelingsalgoritmen? Welke signalen nemen ze mee? En hoe passen ze hun bedrijfsregels aan? De sociale mediaplatformen zijn de enige die dit weten.

Ook zien we dat bepaalde soort inhoud online meer wordt versterkt dan andere. Dat roept vragen op over de bias van aanbevelingsalgoritmen. Geen enkel algoritme is neutraal, ook de chronologische tijdlijn niet. Maar inzicht in die bias is moeilijk te verkrijgen.

Vorige week hielden we een Technische Briefing voor de Tweede Kamercommissie Digitale Zaken ( @barbarakathmann
Queeny-Aimée Rajkowski, Jantine Zwinkels en Sarah El Boujdaini waren aanwezig).

"Alleen platformen weten hoe ze data in hun aanbevelingsalgoritmen wegen. Voor buitenstaanders is dit niet te achterhalen. Platformen zien dit als hun bedrijfsgeheim", vertelde ik de Tweede Kamer.

Wat we missen is continue monitoring van de effecten van hun ontwerpkeuzes.

Kwaadwillenden verzenden bijvoorbeeld met nepaccounts bijna gelijktijdig dezelfde berichten, betalen influencers om een boodschap te verspreiden en liften mee op populaire hashtags. Zo zorgen ze dat specifieke inhoud wordt versterkt.

Het inmengingsinstrumentarium is voor iedereen beschikbaar.

Het is aan platformen om meer informatie publiekelijk te delen, en hun maatschappelijke verantwoordelijkheid te nemen.

De Tweede Kamer kan beginnen met alle grote platformen, via de Minister, verzoeken om openbare evaluaties te delen van wat er zich op hun platform allemaal heeft afgespeeld rondom de verkiezingen.

Lees onze brief aan de Tweede Kamer hier: https://www.rathenau.nl/nl/democratische-controle-op-verkiezingsdata.

3/3

Impressive artwork of broken chairs that are repaired with melted metal from Russian rockets fired on Ukraine. #DutchDesignWeek #DDW

Come redesign online spaces with us at Society 5.0 Festival in Amsterdam! We're there today and tomorrow, sharing insights from our project Inclusive online.

The choices designers make when building apps and platforms often feel self-evident, as if the internet is simply meant to work the way it does now. But that’s not the case.

Interested in this research? Check out the English summary here or send me a message!

https://www.rathenau.nl/en/digitalisation/reviewing-relationship-technology-companies/inclusive-online-summary

Can we imagine a world in which content moderation feels fair and humane? The Human in the loop speculative prototype is designed with a more human process in mind. The prototype provides users with transparency about the content moderation decision-making process.

It provides insight into why content has been moderated and offers the
possibility to discuss this with a content moderator via a video call. In this way, it directly responds to the need for transparency around content moderation.