Ümit Eroglu

Eine 13-jährige Schülerin erstellt ein Instagram-Profil.
Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat.

Ein paar Wochen später:
5.000 Freundschaftsanfragen.
6.700 Follower.
Fast ausschließlich erwachsene Männer.

Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik.

Die Reaktion von Meta?
Eine Einladung, den Account zu monetarisieren.

Der entscheidende Punkt:
Das Mädchen existierte gar nicht.

Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment.

Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet.

Und sie dokumentierten systematisch, was der Algorithmus ausliefert.

Jetzt steht Meta deshalb vor Gericht.

Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230.

Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften.

New Mexico argumentiert anders.

Nicht der Content sei das Problem.
Sondern das Produktdesign.

Der Staat wirft Meta vor:

– Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden
– Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten
– Plattformmechaniken würden problematische Interaktionen sogar verstärken

Der Beweisansatz ist neu.

https://www.linkedin.com/feed/update/urn:li:activity:7438112864395091968/

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000… | Ümit Eroglu | 299 comments

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000 Freundschaftsanfragen. 6.700 Follower. Fast ausschließlich erwachsene Männer. Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik. Die Reaktion von Meta? Eine Einladung, den Account zu monetarisieren. Der entscheidende Punkt: Das Mädchen existierte gar nicht. Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment. Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet. Und sie dokumentierten systematisch, was der Algorithmus ausliefert. Jetzt steht Meta deshalb vor Gericht. Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230. Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften. New Mexico argumentiert anders. Nicht der Content sei das Problem. Sondern das Produktdesign. Der Staat wirft Meta vor: – Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden – Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten – Plattformmechaniken würden problematische Interaktionen sogar verstärken Der Beweisansatz ist ebenfalls neu. Die Ermittler analysieren nicht interne Dokumente oder nachträgliche Statistiken. Sie haben live dokumentiert, was die Plattform einem angeblich minderjährigen Account tatsächlich ausspielt. Das Verfahren könnte enorme Auswirkungen haben. Wenn Gerichte anfangen, Plattformdesign statt Inhalte zu regulieren, verändert das die gesamte Haftungslogik der sozialen Netzwerke. Dann geht es nicht mehr nur darum, was Nutzer posten. Sondern darum, wie Plattformen Verhalten systematisch erzeugen. Im Product Design auch als Dark Patterns bezeichnet. Und genau dort liegt die eigentliche Macht moderner Plattformen. Nicht im Content. Sondern im Design der Systeme, die entscheiden, was wir sehen, wen wir treffen und wie sich Netzwerke bilden. Der Fall New Mexico vs. Meta könnte deshalb einer der wichtigsten Tech-Prozesse der nächsten Jahre werden. REPOST: der Post ist viral gegangen und wurde von LinkedIn wegen angeblicher Fake News gesperrt. Ich teile gerne meine Quelle in den Kommentaren. Also hier nochmal. | 299 comments on LinkedIn

LinkedIn

@ChristianApl

Warum sind immer noch so viele Menschen auf diesen unsäglichen Datenkraken-Plattformen unterwegs?!?!

https://rheinneckar.social/@LaBagk/114969956122767030

#DiD #DUT #DiD_DUT

@LaBagk @ChristianApl

 Alle sind so sehr auf die Reichweite angewiesen - sagen sie... Aber wenn wir nicht bald alle gleichzeitig auf unabhängige Plattformen wechseln, wird es böse...

Wir laden alle Klima-Organisationen und humanitären NGOs ein, hierher zu ziehen!!!  

#GermanZero #KlimaOrganisation

@LocalZero_Ulm Die _theoretische_ Reichweite.

Der Verein hat 6000 Follower auf Faschogram? Glückwunsch: Die Posts werden trotzdem nur an 300 ausgespielt. Oder an 10 oder 6000 oder 12000. Wer weiß das schon?

Falls mal wieder jemand mit Reichweite argumentieren sollte…

@patrick @LocalZero_Ulm Hmm ... jetzt im Januar habe ich angefangen, im Fediverse (auf Loops) Kurzvideos zu posten. Paralell dazu im selben Zeitraum zusätzlich auf Insta. Was soll ich sagen? Auf Insta werden meine Videos von 10x so vielen Leuten angesehen ... soweit zum Thema Reichweite.
Dazu kommt: um ein Kurzvideo bei Loops upzuloaden, habe ich vorher 2 Arbeitsschritte mehr ...!
Den Algo auf Insta finde ich gar nicht mal so schlecht! Zu Themen, die mich partout nicht interessieren, ...

1/2 ⬇️

@patrick @LocalZero_Ulm .⬆️... bekomme ich auch keine Vorschläge, keine Beiträge. So eine Möglichkeit vermisse ich im Fedi schon hin und wieder ...bestimmte Themen von vorneherein komplett ausschließen zu können!
Das Fedi ist schon eine extrem coole Sache, ohne jeden Zweifel! Goldwert!
Da es grundverschieden ist, aber keine 100%ige Alternative zu den kommerziellen SoMe? Das hat das Fedi auch nicht nötig. Ein 3-Sterne Restaurant ist ja auch keine Frittenbude, oder? 🤔

2/2

@die_Leo Ich sehe Sachen, die ich nicht sehen will, auch nicht. Dafür gibts die Funktion "stummgeschaltete Wörter", bei der ich entscheiden kann, was ich gebrauchen kann oder nicht - und nicht irgendeine Automatik, die im "Bedarfsfall" (z.B. "ein Werbetreibender¹ zahlt genug") auch mal anders entscheidet als sonst.

¹ Das kann im Prinzip irgendwer sein. Und so ziemlich beliebig genau auf Leute zugeschnitten werden. Die Labour PR-Leute hatten Corbyn seine bevorzugte "sozialistische" Werbung gezeigt, während allen anderen, insbesondere potentiellen Wählern, das übliche "New Labour" präsentiert wurde: https://theoutline.com/post/5411/facebook-ad-micro-targeting-can-manipulate-individual-politicians

Facebook ad micro-targeting can manipulate individual politicians

Turns out the Labour Party’s digital voter registration drive was for the few, not the many.

The Outline