Ümit Eroglu

Eine 13-jährige Schülerin erstellt ein Instagram-Profil.
Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat.

Ein paar Wochen später:
5.000 Freundschaftsanfragen.
6.700 Follower.
Fast ausschließlich erwachsene Männer.

Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik.

Die Reaktion von Meta?
Eine Einladung, den Account zu monetarisieren.

Der entscheidende Punkt:
Das Mädchen existierte gar nicht.

Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment.

Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet.

Und sie dokumentierten systematisch, was der Algorithmus ausliefert.

Jetzt steht Meta deshalb vor Gericht.

Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230.

Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften.

New Mexico argumentiert anders.

Nicht der Content sei das Problem.
Sondern das Produktdesign.

Der Staat wirft Meta vor:

– Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden
– Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten
– Plattformmechaniken würden problematische Interaktionen sogar verstärken

Der Beweisansatz ist neu.

https://www.linkedin.com/feed/update/urn:li:activity:7438112864395091968/

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000… | Ümit Eroglu | 299 comments

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000 Freundschaftsanfragen. 6.700 Follower. Fast ausschließlich erwachsene Männer. Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik. Die Reaktion von Meta? Eine Einladung, den Account zu monetarisieren. Der entscheidende Punkt: Das Mädchen existierte gar nicht. Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment. Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet. Und sie dokumentierten systematisch, was der Algorithmus ausliefert. Jetzt steht Meta deshalb vor Gericht. Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230. Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften. New Mexico argumentiert anders. Nicht der Content sei das Problem. Sondern das Produktdesign. Der Staat wirft Meta vor: – Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden – Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten – Plattformmechaniken würden problematische Interaktionen sogar verstärken Der Beweisansatz ist ebenfalls neu. Die Ermittler analysieren nicht interne Dokumente oder nachträgliche Statistiken. Sie haben live dokumentiert, was die Plattform einem angeblich minderjährigen Account tatsächlich ausspielt. Das Verfahren könnte enorme Auswirkungen haben. Wenn Gerichte anfangen, Plattformdesign statt Inhalte zu regulieren, verändert das die gesamte Haftungslogik der sozialen Netzwerke. Dann geht es nicht mehr nur darum, was Nutzer posten. Sondern darum, wie Plattformen Verhalten systematisch erzeugen. Im Product Design auch als Dark Patterns bezeichnet. Und genau dort liegt die eigentliche Macht moderner Plattformen. Nicht im Content. Sondern im Design der Systeme, die entscheiden, was wir sehen, wen wir treffen und wie sich Netzwerke bilden. Der Fall New Mexico vs. Meta könnte deshalb einer der wichtigsten Tech-Prozesse der nächsten Jahre werden. REPOST: der Post ist viral gegangen und wurde von LinkedIn wegen angeblicher Fake News gesperrt. Ich teile gerne meine Quelle in den Kommentaren. Also hier nochmal. | 299 comments on LinkedIn

LinkedIn

@ChristianApl

Warum sind immer noch so viele Menschen auf diesen unsäglichen Datenkraken-Plattformen unterwegs?!?!

https://rheinneckar.social/@LaBagk/114969956122767030

#DiD #DUT #DiD_DUT

@LaBagk @ChristianApl Und noch ein Hinweis: hier im Fediverse habe ich auch schon die eine oder andere "Anfrage" männlicherseits erlebt ...
Natürlich kann man Profile blocken (kann man auch auf Insta & FB), aber Fake-Profile sind leider auch hier möglich.

@die_Leo natürlich sind diese hier möglich, vielleicht sogar noch einfacher, da es kaum Hürden bei der Anmeldung gibt. Kein Vorteil ohne Nachteile.

Dafür wird hier die Moderation bei Hinweisen auch tatsächlich tätig.

@LaBagk @ChristianApl

@hannes99 @LaBagk @ChristianApl Hmm ... nur bis Kinder/ Jugendliche merken, daß sie evtl. mit einem Erwachsenen kommunizieren, kann auch hier kein Admin aktiv werden, oder? 🤔
Und noch ein Punkt: die Gefahr für Kinder/ Jugendliche solchen in die Falle zu gehen unter "keine Vorteile ohne Nachteile" zu verorten ... ? Fehlt mir als selber Betroffene von Gewalt in der Kindheit dann doch das Verständnis. 👀

@die_Leo @LaBagk du, ich bin erst einmal nur auf deinen Punkt Fake-Profile generell eingegangen, mehr nicht! Beim Punkt Kinderschutz gebe ich dir soweit Recht: erklärtermaßen Minderjährige (dafür braucht es ja keinen Nachweis) sollten am besten gar nicht erst per DM kontaktiert werden können, für alles andere reicht der öffentliche Austausch. Jedenfalls nicht unter Verwendung bestimmter, einschlägiger Begriffe.

Eine verdachtsUNabhängige Massenkontrolle rechtfertigt das aber nicht

@ChristianApl

@die_Leo @LaBagk ... und Alterssperren bieten ebenfalls keinen echten Schutz, sondern Grenzen (potenzielle) Opfer aus und machen sie zu Tätern.

@ChristianApl