Ümit Eroglu

Eine 13-jährige Schülerin erstellt ein Instagram-Profil.
Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat.

Ein paar Wochen später:
5.000 Freundschaftsanfragen.
6.700 Follower.
Fast ausschließlich erwachsene Männer.

Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik.

Die Reaktion von Meta?
Eine Einladung, den Account zu monetarisieren.

Der entscheidende Punkt:
Das Mädchen existierte gar nicht.

Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment.

Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet.

Und sie dokumentierten systematisch, was der Algorithmus ausliefert.

Jetzt steht Meta deshalb vor Gericht.

Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230.

Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften.

New Mexico argumentiert anders.

Nicht der Content sei das Problem.
Sondern das Produktdesign.

Der Staat wirft Meta vor:

– Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden
– Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten
– Plattformmechaniken würden problematische Interaktionen sogar verstärken

Der Beweisansatz ist neu.

https://www.linkedin.com/feed/update/urn:li:activity:7438112864395091968/

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000… | Ümit Eroglu | 299 comments

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000 Freundschaftsanfragen. 6.700 Follower. Fast ausschließlich erwachsene Männer. Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik. Die Reaktion von Meta? Eine Einladung, den Account zu monetarisieren. Der entscheidende Punkt: Das Mädchen existierte gar nicht. Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment. Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet. Und sie dokumentierten systematisch, was der Algorithmus ausliefert. Jetzt steht Meta deshalb vor Gericht. Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230. Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften. New Mexico argumentiert anders. Nicht der Content sei das Problem. Sondern das Produktdesign. Der Staat wirft Meta vor: – Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden – Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten – Plattformmechaniken würden problematische Interaktionen sogar verstärken Der Beweisansatz ist ebenfalls neu. Die Ermittler analysieren nicht interne Dokumente oder nachträgliche Statistiken. Sie haben live dokumentiert, was die Plattform einem angeblich minderjährigen Account tatsächlich ausspielt. Das Verfahren könnte enorme Auswirkungen haben. Wenn Gerichte anfangen, Plattformdesign statt Inhalte zu regulieren, verändert das die gesamte Haftungslogik der sozialen Netzwerke. Dann geht es nicht mehr nur darum, was Nutzer posten. Sondern darum, wie Plattformen Verhalten systematisch erzeugen. Im Product Design auch als Dark Patterns bezeichnet. Und genau dort liegt die eigentliche Macht moderner Plattformen. Nicht im Content. Sondern im Design der Systeme, die entscheiden, was wir sehen, wen wir treffen und wie sich Netzwerke bilden. Der Fall New Mexico vs. Meta könnte deshalb einer der wichtigsten Tech-Prozesse der nächsten Jahre werden. REPOST: der Post ist viral gegangen und wurde von LinkedIn wegen angeblicher Fake News gesperrt. Ich teile gerne meine Quelle in den Kommentaren. Also hier nochmal. | 299 comments on LinkedIn

LinkedIn

@ChristianApl

Warum sind immer noch so viele Menschen auf diesen unsäglichen Datenkraken-Plattformen unterwegs?!?!

https://rheinneckar.social/@LaBagk/114969956122767030

#DiD #DUT #DiD_DUT

@LaBagk @ChristianApl

 Alle sind so sehr auf die Reichweite angewiesen - sagen sie... Aber wenn wir nicht bald alle gleichzeitig auf unabhängige Plattformen wechseln, wird es böse...

Wir laden alle Klima-Organisationen und humanitären NGOs ein, hierher zu ziehen!!!  

#GermanZero #KlimaOrganisation

@LocalZero_Ulm @LaBagk @ChristianApl Hmm ... wenn die "Guten" alle wo anders hingehen, haben die anderen nur noch ihre Filterblase. Das wäre dann so eine Art "Gentrifizierung" auf SoMe ... und würde die Spaltung der Gesellschaft nur noch weiter zementieren?
Sich von anderen abgrenzen impliziert andere auszugrenzen?

@die_Leo nein? Denn sonst müssten wir ja alle auch aufs Trumps "Truth Social", um dort vertreten zu sein. Und etwas anderes sind die Bigtech-Bro-Plattformen nicht mehr.

@LocalZero_Ulm @LaBagk @ChristianApl

@hannes99 @LocalZero_Ulm @LaBagk @ChristianApl Hmm ... ich sehe das schon etwas kritisch, wenn z.B. junge Menschen auf den anderen SoMe irgendwann nur noch einseitige Inhalte vorfinden?

@die_Leo damit legitimierst du aber jede noch so schäbige "Plattform". Denn genau hier liegt der Hund begraben: wenn ein SM-Anbieter selbst manipulative Algorithmen einsetzt und steuert, was Gehör findet und was nicht und zwar ausdrücklich entgegen gesetzlichen Regelungen und entgegen einem grundgesetzkonformen Demokratieverständnis, dann ist es keine (bloße) Plattform mehr, sondern in erster Linie ein Propagandainstrument, das von jedem User profitiert.

@LocalZero_Ulm @LaBagk @ChristianApl