Wouter

@woutern
48 Followers
111 Following
90 Posts

Researching the impact of digital technologies @ Rathenau Instituut

Social media | Design Research | Inclusivity Online | AI

Pronounshe/him
Websitehttps://wouternieuwenhuizen.nl
Blueskyhttps://bsky.app/profile/wouter-n.bsky.social
Kunstmatige intelligentie neemt geen werk over. Bedrijven en managers die ervoor kiezen om (delen van) menselijk werk te vervangen door de output van taalmodellen, die nemen werk over. Wees alert op de actor. Een taalmodel ontslaat jou niet, dat doet je baas.
Om de risico's op inmengingsactiviteiten te verkleinen, moeten we aan de slag. In drie richtingen: het platformontwerp veranderen, de informatiepositie van wetgevers, toezichthouders en onafhankelijke onderzoekers versterken, en de weerbaarheid van de samenleving vergroten.

Wat zijn de aanpassingen in de gewichten van aanbevelingsalgoritmen? Welke signalen nemen ze mee? En hoe passen ze hun bedrijfsregels aan? De sociale mediaplatformen zijn de enige die dit weten.

Ook zien we dat bepaalde soort inhoud online meer wordt versterkt dan andere. Dat roept vragen op over de bias van aanbevelingsalgoritmen. Geen enkel algoritme is neutraal, ook de chronologische tijdlijn niet. Maar inzicht in die bias is moeilijk te verkrijgen.

Vorige week hielden we een Technische Briefing voor de Tweede Kamercommissie Digitale Zaken ( @barbarakathmann
Queeny-Aimée Rajkowski, Jantine Zwinkels en Sarah El Boujdaini waren aanwezig).

"Alleen platformen weten hoe ze data in hun aanbevelingsalgoritmen wegen. Voor buitenstaanders is dit niet te achterhalen. Platformen zien dit als hun bedrijfsgeheim", vertelde ik de Tweede Kamer.

Wat we missen is continue monitoring van de effecten van hun ontwerpkeuzes.

Kwaadwillenden verzenden bijvoorbeeld met nepaccounts bijna gelijktijdig dezelfde berichten, betalen influencers om een boodschap te verspreiden en liften mee op populaire hashtags. Zo zorgen ze dat specifieke inhoud wordt versterkt.

Het inmengingsinstrumentarium is voor iedereen beschikbaar.

"Inmenging in publiek debat rond verkiezingen is met social media eenvoudig". Dat stelt het @RathenauNL vandaag in een onderzoek waar ik aan meewerkte.

Veel van wat je online ziet, komt van mensen die je niet volgt. Hoe komt dat? Platformen zijn steeds meer gaan leunen op aanbevelingsalgoritmen. En dat maakt kwetsbaar. Kwaadwillenden die verkiezingen willen beïnvloeden via social media kunnen handig inspelen op aanbevelingsalgoritmen.

Aya Jaff at re:publica 2025 spoke words I still think about sometimes: "You can't build the future if you're scared of the border".
What are your favourite critical tech rss feeds to follow? 👇

@pluralistic

"AI can't do your job, but an AI salesman can convince your boss to fire you and replace you with an AI that can't do your job:

https://pluralistic.net/2025/03/18/asbestos-in-the-walls/#government-by-spicy-autocomplete

Your boss is an easy mark for these AI swindlers, because your boss dreams of a world without workers, because that's a world where bosses are driving the bus."

Pluralistic: AI can’t do your job (18 Mar 2025) – Pluralistic: Daily links from Cory Doctorow

"We can't succeed without joy", @cwebber said today at SPUI25 about organising and building alternatives to centralised platforms.

Also worth remembering: fund the "open source weirdos", and make sure big tech regulation doesn't (accidentally) make their work more difficult.