Stoppt Dobrindts Überwachungspläne!

Die Zeit drängt. Die Gesetzentwürfe stehen schon am 29.4. auf der Tagesordnung des Bundeskabinetts. Wer jederzeit erkannt werden kann, überlegt sich zweimal, ob sie oder er auf eine Demo geht, einen kritischen Post teilt – oder auch nur in Ruhe durch die Stadt läuft. Die Gesetzentwürfe greifen tief in unsere Grundrechte ein: in die Versammlungsfreiheit, die Meinungsfreiheit, das Recht auf Privatsphäre und das Recht, sich frei und unbeobachtet im öffentlichen Raum zu bewegen. Wir sagen:...

WeAct
"Rechenzentren sind Vampire": Wo sich lokaler Widerstand gegen den KI-Hype formiert

https://netzpolitik.org/2026/rechenzentren-sind-vampire-wo-sich-lokaler-widerstand-gegen-den-ki-hype-formiert/

Der Bau von Rechenzentren boomt, in Deutschland und weltweit. Dadurch werden Strom und Wasser knapp, sagen Aktivist*innen und organisieren lokale Proteste. Auf der Konferenz "Cables of Resistance" trafen sie sich zur Vernetzung.

#algorithmwatch #algorithwatch #amazon #anacé #aufständederallmende #beringen #berlin #bigtech #bluestar #brasilien #cyrusone #dylanmurphy #ecologistasenacción #energieeffizienzgesetz #fabianhalfar #frankfurtammain #groß_gerau #indrajungblut #josérenatolaranjeira #julianbothe #katharinareiche #ki_blase #ki_boom #ki_hype #künstlicheintelligenz #la_quadrature_du_net #luisgarcíavalverde #marseille #microsoft #niklassteinke #notherenotanywhere #preagroup #rechenzentrum #rechenzentrumsstrategie #netzpolitik

Credits: Alle Rechte vorbehalten IMAGO / Joko
Schwarz-rot soll Überwachungspläne zurückziehen

Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen laut AlgorithmWatch gegen Europarecht und die Verfassung. Sie seien so unverhältnismäßig, dass man sie nicht verbesser…

Roberts Blog

Biometrische Internetfahndung

Europarechts- und verfassungswidrig: Schwarz-Rot soll Pläne für biometrische Internetfahndung zurückziehen

Die Pläne, im Internet mit Biometrie nach jedweder Person zu suchen, verstoßen laut AlgorithmWatch gegen Europarecht und die Verfassung. Sie seien so unverhältnismäßig, dass man sie nicht verbessern, sondern nur zurückziehen könne.

Die Pläne der Bundesregierung, die digitalen Ermittlungsbefugnisse von Sicherheitsbehörden auszuweiten, sind nach Meinung der Organisation AlgorithmWatcheuroparechtswidrig und stehen im Konflikt mit verfassungsrechtlichen Mindestanforderungen und datenschutzrechtlichen Grundsätzen.

Dabei kommt AlgorithmWatch – wie auch schon zuvor die Gesellschaft für Freiheitsrechte (GFF) – zu dem Schluss, dass man dieses Gesetz nicht mit ein paar Änderungen verbessern könnte. Die verfassungs- und menschenrechtliche Unverhältnismäßigkeit lasse „ausschließlich die Empfehlung zu, die Gesetzentwürfe zurückzuziehen und ein grundsätzliches gesetzliches Verbot des Einsatzes biometrischer Massenerkennungssysteme für öffentliche und private Stellen einzuführen“, so die Zusammenfassung der Stellungnahme zum Gesetz (PDF).

„Flächendeckende Verfolgung aller Menschen im digitalen Raum“

Die schwarz-rote Koalition plant in ihrem „Sicherheitspaket“ einerseits eine biometrische Massenfahndung im Internet zu erlauben sowie andererseits die Zusammenführung und Auswertung polizeilicher Daten mittels automatisierter Datenbankanalyse. Die Stellungnahme der Nichtregierungsorganisation fokussiert sich auf die biometrische Fahndung.

Diese biometrische Internetfahndung sieht die NGO sehr kritisch:

Der biometrische Abgleich ermöglicht die Identifizierung von Personen im öffentlichen Raum und im Internet auf Basis biometrischer Merkmale und schafft somit die technischen Voraussetzungen für eine flächendeckende Verfolgung aller Menschen im (digitalen) öffentlichen Raum.

Laut AlgorithmWatch berührt die Überwachungsmaßnahme zwangsläufig die Grundrechte aller Menschen, sie sei weder erforderlich noch verhältnismäßig. Betroffen seien dabei insbesondere die Grundrechte auf informationelle Selbstbestimmung und freie Meinungsäußerung.

Rückschlüsse auf politische Einstellungen

Die NGO kritisiert, dass die Maßnahme heimlich erfolgt und eine extrem hohe Streubreite hat: Es seien einfach alle Menschen betroffen, deren Gesichtsbilder im Internet zu finden sind. Das ist heute ein großer Teil der Bevölkerung. Zudem gebe es erhebliche Diskriminierungsrisiken, wenn sensible Daten erfasst und verarbeitet werden, wie Aufnahmen von Demonstrationen, Parteiveranstaltungen, Pride-Events, Gewerkschaftskundgebungen oder Gottesdiensten. Solche Aufnahmen lassen Rückschlüsse zu auf politische Haltungen, Parteizugehörigkeit, sexuelle oder religiöse Einstellungen.

Darüber hinaus könnten durch die biometrische Internetfahndung auch Bilder aus dem Kernbereich privater Lebensführung ausgewertet werden wie etwa Kindergeburtstage oder private Familienfeiern. Dieser Kernbereich ist verfassungsrechtlich besonders geschützt. Die öffentliche Verfügbarkeit der Daten, die für einen Abgleich herangezogen werden, ändere nichts daran, dass Schutzbereiche der Grundrechte berührt sind.

In der Stellungnahme verweist AlgorithmWatch darauf, dass das Bundesverfassungsgericht bei Kfz-Kennzeichen, die deutlich weniger sensibel als biometrische Merkmale seien, hohe verfassungsrechtliche Anforderungen aufgestellt habe.

Auch seien die Anforderungen für die geplante massenhafte Verarbeitung biometrischer Daten zu unspezifisch sowie die Einsatzzwecke und Tatbestandsmerkmale zu breit und nicht gewichtig genug, als dass eine grundrechtskonforme Anwendung realistisch erscheine. Hier verweist die Organisation auf den Straftatenkatalog des § 100a Abs. 2 StPO , der regelmäßig erweitert und angepasst werde und sich deshalb nicht zur klaren Begrenzung der Maßnahmen auf schwerwiegende Straftaten eigne. Diese Kritik hatte auch die GFF geäußert.

Technische Ausgestaltung unklar

Der Gesetzentwurf lege außerdem „völlig unzureichend“ dar, wie die Überwachungsmaßnahme technisch vonstattengehen soll. Einerseits sollen die die im Rahmen des biometrischen Abgleichs erhobenen und verarbeiteten Daten nach dessen Durchführung „unverzüglich” gelöscht werden, auf der anderen Seite bleibe der Gesetzentwurf schuldig, wie die Sache technisch funktionieren soll.

Klar ist: Für einen biometrischen Abgleich braucht es eine Datenbank, die mit einem gesuchten Bild verglichen werden muss. Bisherige Systeme von privaten Firmen zur Gesichtssuche im Internet wie beispielsweise PimEyes funktionieren so, dass sie meist illegal alle möglichen Gesichtsbilder aus dem Internet sammeln, auswerten und die biometrischen Merkmale sowie die Fundstellen und Metadaten und Zusatzinformationen dieser Bilder in einer Datenbank hinterlegen. Suche ich nun nach einem Gesicht, werden die biometrischen Merkmale dieses Gesichts mit den in der Datenbank hinterlegten Daten abgeglichen – und die jeweiligen Ergebnisse ausgespuckt.

Ein durch AlgorithmWatch beauftragtes Gutachten hat festgestellt, dass ein biometrischer Abgleich zwischen Bildern gesuchter Personen und im Internet verfügbaren Fotos ohne Verwendung einer Datenbank nicht sinnvoll umsetzbar ist. Für die NGO ist damit klar, dass das Vorhaben verboten ist, weil die KI-Verordnung der EU eine mittels Künstlicher Intelligenz erstellte Gesichterdatenbank verbieten würde.

Ein Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.

Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Genau dieses Schlupfloch könnte die Bundesregierung nutzen wollen, sie lässt aber offen, wie das technisch funktionieren soll.

Auslagerung an Private als Schlupfloch?

AlgorithmWatch kritisiert, dass der Gesetzentwurf eine Art Auslagerungsbefugnis enthalte, für den Fall, dass Polizei- und Strafverfolgungsbehörden den Abgleich technisch nicht selbst durchführen können. Sie erlaubt ausdrücklich eine Übermittlung von Daten zum Zweck eines biometrischen Abgleichs an öffentliche Stellen und private Anbieter sowohl im Inland als auch im Ausland sowie innerhalb wie außerhalb der Europäischen Union.

Auch das könnte ein Schlupfloch sein. Die NGO sagt dazu: „Eine Erlaubnis für solch eine Auslagerung des biometrischen Abgleichs ins (Nicht-EU-)Ausland führt sämtliche durch die Gesetzestexte eingeführten Beschränkungen ad absurdum.“ Damit würde  der in den Gesetzentwürfen beschriebene Vorgang des Löschens aller verarbeiteten Daten nach jeder einzelnen Suchanfrage zur theoretischen Fassade, heißt es in der Stellungnahme. „Aus diesem Grund, so die Vermutung, wird auf die Übermittlung von Daten an Dritte verwiesen, welche den Abgleich im Auftrag deutscher Behörden durchführen würden. Ins Spiel kommen könnten dann solche Anbieter wie PimEyes oder Clearview AI.

Der Staat dürfe aber, so die Stellungnahme, selbst keine rechtswidrigen Angebote Dritter nutzen. „Ein Delegieren der Umsetzung ins Ausland stellt entsprechend keine europa- und grundrechtskonforme Lösung dar.“ Dazu komme, dass derart  schwerwiegende Grundrechtseingriffe nicht an private Unternehmen oder öffentliche Stellen in Drittstaaten ausgelagert werden dürften.

Markus Reuter recherchiert und schreibt zu Digitalpolitik, Desinformation, Zensur und Moderation sowie Überwachungstechnologien. Darüber hinaus beschäftigt er sich mit der Polizei, Grund- und Bürgerrechten sowie Protesten und sozialen Bewegungen. Für eine Recherchereihe zur Polizei auf Twitter erhielt er 2018 den Preis des Bayerischen Journalistenverbandes, für eine TikTok-Recherche 2020 den Journalismuspreis Informatik. Bei netzpolitik.org seit März 2016 als Redakteur dabei. Er ist erreichbar unter markus.reuter | ett | netzpolitik.org, sowie auf Mastodon und Bluesky. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Biometrische Internetfahndung – Beueler-Extradienst

https://algorithmwatch.org/de/job-opening-algorithmwatch-sucht-eine-stellvertretende-leitung-des-teams-engagement-schwerpunkt-campaigning/

@algorithmwatch sucht eine stellvertretende Leitung des Teams #Engagement (Schwerpunkt #Campaigning)

Du „kannst Kampagnen“ und hast Lust darauf, politische Debatten zu prägen und Menschen zu motivieren, die Arbeit von AlgorithmWatch zu unterstützen? Dann bewirb dich!

#Fedijobs #jobs #Algorithmwatch

Job Opening: AlgorithmWatch sucht eine stellvertretende Leitung des Teams Engagement (Schwerpunkt Campaigning) - AlgorithmWatch

Du "kannst Kampagnen" und hast Lust darauf, politische Debatten zu prägen und Menschen zu motivieren, unsere Arbeit zu unterstützen? Dann bewirb dich!

AlgorithmWatch

Neue Episode bei @letztens: Blick auf @algorithmwatch – eine #NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.

Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.

Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.

https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/

Podcasthon 2026: AlgorithmWatch – Was macht diese NGO? - letztens.de Podcast | letztens mitbekommen

Wir beleuchten die NGO „AlgorithmWatch“, eine Initiative für mehr Transparenz in algorithmischen Entscheidungen. Dabei thematisieren wir Intransparenz durch Algorithmen (z.B. bei Kreditvergaben sowie Diskriminierung in sozialen Medien etc.). Diese Episode ist Teil vom Podcasthon 2026.

letztens.de Podcast | letztens mitbekommen

Neue Episode: Wir schauen auf @algorithmwatch – eine NGO für mehr Transparenz und Fairness bei algorithmischen Entscheidungssystemen.

Algorithmen entscheiden längst mit: bei Kreditvergaben, in sozialen Medien, bei Gesichtserkennung etc. Oft ist dabei unklar, warum ein System so entscheidet – und wen es dabei benachteiligt.

Die Folge ist Teil vom #Podcasthon2026. Wenn ihr das Thema wichtig findet: hört rein, teilt die Episode, und unterstützt #AlgorithmWatch.

https://www.letztens.de/podcast-episode/podcasthon-2026-algorithmwatch-was-macht-diese-ngo/

Podcasthon 2026: AlgorithmWatch – Was macht diese NGO? - letztens.de Podcast | letztens mitbekommen

Wir beleuchten die NGO „AlgorithmWatch“, eine Initiative für mehr Transparenz in algorithmischen Entscheidungen. Dabei thematisieren wir Intransparenz durch Algorithmen (z.B. bei Kreditvergaben sowie Diskriminierung in sozialen Medien etc.). Diese Episode ist Teil vom Podcasthon 2026.

letztens.de Podcast | letztens mitbekommen

Sehr interessante Folge von SWR Kultur „Das Wissen“: KI-generierte Kinderbücher und Reiseführer – und die Rolle von Amazon dabei

Wenn man immer nur Muster erkennt, aus den Daten die Vorliegen, dann bezieht man sich eben immer nur auf die Vergangenheit. Daraus kann nichts Neues entstehen


Ein Buch-Scrabble aus Milliarden Wort-Versatzstücken. Re-Kombination statt Kreation. Altes aufbereitet, veröffentlicht, und wieder aufbereitet.


Auf den Punkt gebracht: hier wird Müll produziert. „ein durchkalkulierter Fake …“

swr.de/swrkultur/wissen/bueche…

#Kinderbuch #Reiseführer #KI #AI #Amazon #AlgorithmWatch #Podcast

Bücher von der KI – Wie sich der Buchmarkt verändert

Zunehmend drängen KI-generierte Kinderbücher auf den Markt. Sie haben die immer gleichen Erzählmuster und Stereotype. Auch Reiseführer kriegen KI-Konkurrenz. Rechtlich lässt sich das aber kaum unterbinden.

SWR Kultur

AlgorithmWatch möchte „Non-consensual Sexualization Tools" (NST) mit der Unterstützung von euch finden und verhindern, dass sie auf Social Media und in App-Stores verbreitet werden. Einfach melden.
https://algorithmwatch.org/de/lasst-uns-deepfake-apps-gemeinsam-stoppen/

#deepfakes #dsa #nst #algorithmwatch

Lasst uns sexualisierende Deepfakes gemeinsam stoppen! - AlgorithmWatch

Digitale Gewalt hat viele Gesichter, und KI ist eines von ihnen. Mit KI können sexualisierte Deepfakes ohne die Zustimmung der Betroffenen erstellt werden. AlgorithmWatch versucht, solche „Non-consensual Sexualization Tools” (NST) mit der Unterstützung von Menschen wie dir zu finden und zu verhindern, dass sie auf Social Media und in App-Stores verbreitet werden. Der Digital Services […]

AlgorithmWatch
Forensic Audit Update: #andernachGATE 🛡️
​Our latest analytics show a systemic "visibility drop" on major platforms.
📉 -46.7% Impressions
📉 -59.4% Member reach
​This suggests a breach of Digital Services Act transparency rules. We are documenting algorithmic bias where political whistleblowing is misclassified as "unsafe".
​Seeking IT-Forensics & Legal support in our coordination group:
👉 https://chat.whatsapp.com/LaIShTyQ4t1Cbvs9Opr1Di
​#DSA #DigitalServicesAct #AlgorithmWatch #ITForensics #Whistleblowing #Fediverse