Situation
Situation
Ăśmit Eroglu
Eine 13-jährige Schülerin erstellt ein Instagram-Profil.
Sie postet ĂĽber ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat.
Ein paar Wochen später:
5.000 Freundschaftsanfragen.
6.700 Follower.
Fast ausschließlich erwachsene Männer.
Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik.
Die Reaktion von Meta?
Eine Einladung, den Account zu monetarisieren.
Der entscheidende Punkt:
Das Mädchen existierte gar nicht.
Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment.
Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet.
Und sie dokumentierten systematisch, was der Algorithmus ausliefert.
Jetzt steht Meta deshalb vor Gericht.
Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230.
Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften.
New Mexico argumentiert anders.
Nicht der Content sei das Problem.
Sondern das Produktdesign.
Der Staat wirft Meta vor:
– Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden
– Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten
– Plattformmechaniken würden problematische Interaktionen sogar verstärken
Der Beweisansatz ist neu.
https://www.linkedin.com/feed/update/urn:li:activity:7438112864395091968/

Eine 13-jährige Schülerin erstellt ein Instagram-Profil. Sie postet über ihren ersten Schultag, die Schulkantine und dass sie ihren letzten Milchzahn verloren hat. Ein paar Wochen später: 5.000 Freundschaftsanfragen. 6.700 Follower. Fast ausschließlich erwachsene Männer. Die größten Gruppen: Nigeria, Ghana, Dominikanische Republik. Die Reaktion von Meta? Eine Einladung, den Account zu monetarisieren. Der entscheidende Punkt: Das Mädchen existierte gar nicht. Der Account wurde vom Attorney General des US-Bundesstaats New Mexico erstellt... als Undercover-Experiment. Die Ermittler wollten wissen, was passiert, wenn sich ein angeblich minderjähriges Mädchen auf Metas Plattform anmeldet. Und sie dokumentierten systematisch, was der Algorithmus ausliefert. Jetzt steht Meta deshalb vor Gericht. Der Fall ist juristisch besonders interessant, weil er eine zentrale Schutzmauer der Tech-Plattformen angreift: Section 230. Bisher konnten sich Plattformen darauf berufen, nur „Host“ für Inhalte zu sein und nicht für das Verhalten der Nutzer zu haften. New Mexico argumentiert anders. Nicht der Content sei das Problem. Sondern das Produktdesign. Der Staat wirft Meta vor: – Algorithmen würden systematisch Kontakte ermöglichen, die Minderjährige gefährden – Sicherheitsversprechen würden öffentlich kommuniziert, intern aber nicht eingehalten – Plattformmechaniken würden problematische Interaktionen sogar verstärken Der Beweisansatz ist ebenfalls neu. Die Ermittler analysieren nicht interne Dokumente oder nachträgliche Statistiken. Sie haben live dokumentiert, was die Plattform einem angeblich minderjährigen Account tatsächlich ausspielt. Das Verfahren könnte enorme Auswirkungen haben. Wenn Gerichte anfangen, Plattformdesign statt Inhalte zu regulieren, verändert das die gesamte Haftungslogik der sozialen Netzwerke. Dann geht es nicht mehr nur darum, was Nutzer posten. Sondern darum, wie Plattformen Verhalten systematisch erzeugen. Im Product Design auch als Dark Patterns bezeichnet. Und genau dort liegt die eigentliche Macht moderner Plattformen. Nicht im Content. Sondern im Design der Systeme, die entscheiden, was wir sehen, wen wir treffen und wie sich Netzwerke bilden. Der Fall New Mexico vs. Meta könnte deshalb einer der wichtigsten Tech-Prozesse der nächsten Jahre werden. REPOST: der Post ist viral gegangen und wurde von LinkedIn wegen angeblicher Fake News gesperrt. Ich teile gerne meine Quelle in den Kommentaren. Also hier nochmal. | 299 comments on LinkedIn
The Australien Government has made an ad about Alcoa, and it's surprsingly honest and informative.

Technological progress is amazing these days
Before becoming a politician, one should complete a mandatory 1.5 years of social service, divided into three-month periods:
— in nursing care
— in a daycare center
— in a school
— in a medium-sized company
— in retail
— on a farm
All unpaid and voluntary, of course.
En toute illégalité, la police française a déployé la reconnaissance faciale à grande échelle sur les téléphones des forces de l’ordre
Relié au TAJ, le fichier d’antécédents judiciaires, l’outil permet d’obtenir des informations personnelles grâce à une photo prise sur le vif.
https://disclose.ngo/fr/article/la-reconnaissance-faciale-deployee-a-grande-echelle-sur-les-telephones-des-forces-de-lordre
#Tech
#Police
#ReconnaissanceFaciale
#Surveillance
#ÉtatPolicier
Depuis des années, la police utilise illégalement la reconnaissance faciale lors de contrôles d'identité. En partenariat avec le média @disclose qui publie aujourd'hui une enquête sur le sujet, nous faisons la lumière sur cette pratique abusive. Nous avons rassemblé au sein d'un guide l'ensemble des arguments juridiques et politiques permettant de se défendre contre cette technologie.

Aujourd’hui, nous lançons une offensive contre l’utilisation de la reconnaissance faciale, par la police, lors de simples contrôles d’identité dans la rue. En partenariat avec le média Disclose, nous publions un guide démontrant l’illégalité de cette pratique et, plus généralement, les dangers de ce