"EFF has been sounding the alarm on algorithmic decision making (ADM) technologies for years. ADMs use data and predefined rules or models to make or support decisions, often with minimal human involvement, and in 2024, the topic has been more active than ever before, with landlords, employers, regulators, and police adopting new tools that have the potential to impact both personal freedom and access to necessities like medicine and housing.

This year, we wrote detailed reports and comments to US and international governments explaining that ADM poses a high risk of harming human rights, especially with regard to issues of fairness and due process. Machine learning algorithms that enable ADM in complex contexts attempt to reproduce the patterns they discern in an existing dataset. If you train it on a biased dataset, such as records of whom the police have arrested or who historically gets approved for health coverage, then you are creating a technology to automate systemic, historical injustice. And because these technologies don’t (and typically can’t) explain their reasoning, challenging their outputs is very difficult."

https://www.eff.org/deeplinks/2024/12/fighting-automated-oppression-2024-review-0

#Algorithms #AlgorithmicDecisionMaking #Automation #PredictiveAI

Fighting Automated Oppression: 2024 in Review

EFF has been sounding the alarm on algorithmic decision making (ADM) technologies for years. ADMs use data and predefined rules or models to make or support decisions, often with minimal human involvement, and in 2024, the topic has been more active than ever before, with landlords, employers,...

Electronic Frontier Foundation

#Algorithms #AlgorithmicDecisionMaking #Automation: "De Liban, the Legal Aid lawyer, told me that trying to fix the algorithm sometimes distracts from the need to fix the underlying policy problem. Algorithmic decision-making is predisposed to inflict harm if it is introduced to triage support in a benefits system that is chronically underfunded and set up to treat beneficiaries as suspects rather than rights-holders. By contrast, benefits automation is more likely to promote transparency, due process, and “equitable outcomes” if it is rooted in long-term investments to increase benefit levels, simplify enrollment, and improve working conditions for caregivers and caseworkers.

Policymakers should not let hype about generative AI or speculation about its existential risks distract them from the urgent task of addressing the harms of AI systems that are already among us. Failing to heed lessons from AI’s past and present will doom us to repeat the same mistakes."

https://www.lawfaremedia.org/article/the-algorithms-too-few-people-are-talking-about

The Algorithms Too Few People Are Talking About

The keys to effective AI regulation are hiding in plain sight.

Default

Scrape and scrutinize is the new rock'n'roll. Whether you despise, don't care, or love #TikTok, today can be the first day of your #dataDonation story in which you become a hero of understanding structure and impact of content curation and affordance of this infamous monolith of #socialMedia! How individual is the #FYP? How is harmful content spread? Is it a lost and found of cultural niches? Let's tackle myths and sing songs of #algorithmicDecisionMaking!

Head to https://dataskop.net/ (App in German)

#dataskop

Wie tickt TikTok?

Download für WindowsDownload für macOSDownload für Linux Unterstütze jetzt unsere Forschungs-projekte und spende uns deine TikTok-Daten. Mit über einer Milliarde Nutzer*innen gehört die Plattform zu den einflussreichsten sozialen Medien der Welt. Aber welche Themen trenden dort und welche

DataSkop

RT @[email protected]

We heard @[email protected] #GlobalSkills are gearing up for the first Legal TechLab. The lab will explore the implications of emerging computational methodologies on the practice of law through practical hands-on workshops.

#AlgorithmicDecisionMaking #MachineLearning #Python

🐦🔗: https://twitter.com/qubschooloflaw/status/1578349084561526784

QUB School of Law on Twitter

“We heard @qubschooloflaw #GlobalSkills are gearing up for the first Legal TechLab. The lab will explore the implications of emerging computational methodologies on the practice of law through practical hands-on workshops. #AlgorithmicDecisionMaking #MachineLearning #Python”

Twitter
OpenSCHUFA: Mehr als 15.000 Auskunftsanfragen in einem Monat

Scoring-Unternehmen wie die SCHUFA wissen viel über uns, arbeiten selbst aber intransparent. Mit einer Datenspende-Aktion will die Initiative OpenSCHUFA die Bewertungs-Blackbox knacken. Wir haben Mitinitiator Lorenz Matzat zum ersten Monat seit dem Projektstart, dem weiteren Vorgehen und grundsätzli

netzpolitik.org
Wider die Ohnmacht? Was der Koalitionsvertrag Nutzerinnen und Nutzern verspricht

In Sachen Verbraucherschutz machen Union und SPD viele hehre Versprechen und wenig konkrete Pläne. Immerhin: IT-Hersteller könnten stärker für Sicherheitsmängel haften und kollektive Klagen gegen Missstände könnten einfacher werden. Bei personenbezogenen Daten soll Merkels Mantra vom "Rohstoff des 2

netzpolitik.org
New York City plant Arbeitsgruppe zur Überprüfung von städtischen Algorithmen

Als erste US-amerikanische Stadt plant New York City zum Verwaltungshandeln eingesetzte Algorithmen auf den Prüfstand zu stellen: Experten und Wohltätigkeitsorganisationen sollen Regeln für die Klassifizierung unterschiedlicher Algorithmen entwickeln und Vorschläge machen, wie Bürgerinnen und Bürger

netzpolitik.org
Wie der Mensch die Kontrolle über den Algorithmus behalten kann

Software trifft immer häufiger Entscheidungen mit drastischen Auswirkungen auf unser Leben, ob bei der Kreditvergabe oder in der Medizin. Das Recht sollte dabei eine Möglichkeit zur Prüfung und Kontrolle bieten. Aktuelle Gesetzgebung bietet dafür erste Ansätze. Ein Überblick.

netzpolitik.org
"Wenn sie ethisch umgesetzt werden, kosten sie mehr": danah boyd über algorithmische Entscheidungssysteme

Mit dem Versprechen von Effizienz und Kosteneinsparung hoffen Unternehmen, klammen Städten und Regierungen teils intransparente oder nicht ausgereifte Produkte zu verkaufen. Diese haben Folgekosten, wenn beispielsweise herauskommt, wie fehleranfällig sie sein können. Die Ethnographin danah boyd l

netzpolitik.org
Ethische Fragen bei Künstlicher Intelligenz: Mit welchen Herausforderungen müssen wir umgehen?

Die französische nationale Datenschutzbehörde CNIL legt nach einer mehrmonatigen Diskussion einen Bericht über Software und maschinelle Entscheidungen vor, der sich mit ethischen Fragen auseinandersetzt. Was muss angesichts von uns umgebender Künstlicher Intelligenz neu verhandelt werden, wenn Entsc

netzpolitik.org