Biometrische Fotofahndung

Rechtlich fragwürdig: Bundesregierung will biometrische Fotofahndung im Netz

Die Polizei soll künftig Fahndungsfotos mit allen im Internet verfügbaren Bildern abgleichen dürfen. In der EU sind die technischen Grundlagen für diese Fotofahndung eigentlich verboten. Dennoch will die Bundesregierung Ermittlungsbehörden genau das nun erlauben.

Die Bundesregierung will der Polizei erlauben, für die Strafverfolgung und Terrorismusbekämpfung künftig das Internet nach Gesichtern zu durchsuchen. Ein Fahndungsfoto soll dafür mit allen im öffentlichen Internet auffindbaren Gesichtern biometrisch abgeglichen werden können. Bundesjustizministerin Stefanie Hubig (SPD) und Bundesinnenminister Alexander Dobrindt (CSU) haben sich dazu vergangenen Donnerstag auf drei Gesetzentwürfe geeinigt.

Biometrische Gesichtserkennung beruht darauf, dass jedes Gesicht einzigartige Merkmale hat, etwa den Abstand von Augen, Nasenspitze und Kinn. Diese Merkmale lassen ich vermessen und als Daten darstellen, das sogenannte Template. Diese Templates werden dann automatisiert miteinander verglichen.

Sicherheitspolitiker*innen fordern den Einsatz dieser Fahndungsmethode spätestens seitdem Journalist*innen Ende 2023 das untergetauchte mutmaßliche ehemalige RAF-Mitglied Daniela Klette aufspürten. Sie verwendeten dafür die kommerzielle Gesichtersuchmaschine PimEyes und fanden Bilder von Klette, die unter neuer Identität in Berlin lebte.

Allerdings verbietet die KI-Verordnung der Europäischen Union, Gesichtsbilder aus dem Internet wahllos einzusammeln und daraus biometrische Datenbanken zu erstellen. Die Ministerien wollen dieses Verbot offenbar gezielt umgehen. Sie betonen, dass für das Auslesen der Daten keine KI-Systeme genutzt würden. Außerdem würden beim geplanten „Ad-hoc-Vergleich“ keine Daten dauerhaft gespeichert. Wie dies technisch umgesetzt werden soll, geht aus den Gesetzentwürfen nicht hervor.

Das Vorhaben knüpft an die Debatte um das sogenannte Sicherheitspaket im Herbst 2024 an. Damals scheiterte die Ampel-Regierung mit ihren Plänen, weil den Ländern einige der geplanten Überwachungsbefugnisse nicht weit genug gingen.

Insgesamt bringt die Bundesregierung jetzt drei Gesetzentwürfe auf den Weg. Bundesjustizministerin Hubig stellte die geplanten Änderungen in der Strafprozessordnung (StPO) vor. Parallel kommen aus dem Bundesinnenministerium zwei Entwürfe mit vergleichbaren Befugnissen für die Polizeibehörden des Bundes.

Wie der biometrische Abgleich funktionieren soll

Laut den Plänen aus dem Justizministerium soll die Polizei die biometrische Fahndung einsetzen dürfen, um die Identität oder den Aufenthaltsort von Beschuldigten oder Zeug*innen festzustellen. Erlaubt sein soll das beim Verdacht einer Straftat von erheblicher Bedeutung – das sind etwa Mord und Vergewaltigung, aber auch Steuerhinterziehung, Geldwäsche oder Drogendelikte.

Einen Abgleich mit „öffentlich zugänglichen Echtzeitbildern“ schließt das Gesetz explizit aus. Außerdem darf der Abgleich nur auf Anordnung einer Staatsanwaltschaft erfolgen. Sollte der Einsatz keine Ermittlungsansätze, also Treffer, ergeben, müssen die Daten nach dem Abgleich wieder gelöscht werden.

Keine Datenbank mit Milliarden von Gesichtern

Um im öffentlichen Internet nach Personen suchen zu können, müssen Ermittlungsbehörden die öffentlich im Netz verfügbaren Fotos von Gesichtern zunächst durchsuchen, sammeln und in Templates umrechnen. Dabei entsteht eine Datenbank mit den biometrischen Entsprechungen von möglicherweise Milliarden von Gesichtern.

Das Ministerium betont, dass diese Vergleichsdatenbank bei dem geplanten „Ad-hoc-Abgleich“ nicht dauerhaft gespeichert würde. Die Templates müssten stattdessen für jeden Abgleich neu erstellt werden. Damit sei die „Erstellung einer dauerhaften Datenbank, die aus dem Internet erhobene Lichtbilder und/oder zugehörige Templates vorhält, […] ausgeschlossen“.

Allerdings steht das so nicht explizit im Gesetzentwurf. Dieser legt nur fest, dass die „beim Abgleich erhobenen und verarbeiteten Daten“ im Anschluss „unverzüglich“ zu löschen sind, wenn sie für die weiteren Ermittlungen nicht relevant sind. Die Referenzdatenbank selbst erwähnt der Text nicht explizit.

EU-KI-Verordnung: Warum das Vorhaben problematisch ist

Hinzu kommt: Artikel 5 der KI-Verordnung verbietet „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.

Aus Sicht von Dirk Lewandowski ist die Sache damit eindeutig. Der Professor für Information Research & Information Retrieval an der Hochschule für Angewandte Wissenschaften Hamburg hat für die Organisation AlgorithmWatch ein Gutachten erstellt. Darin kommt er zu dem Schluss, dass die KI-Verordnung es „ausnahmslos“ verbiete, „durch ein anlassloses Scraping von Gesichter-Aufnahmen Datenbanken zur Gesichtserkennung aufzubauen“.

Ohne eine solche Referenzdatenbank könne der Abgleich nicht sinnvoll duchgeführt werden. Laut Lewandowski scheitere ein solches Vorhaben damit rechtlich wie praktisch.

Bundestagsgutachten: Wie das Verbot umgangen werden könnte

Ein Gutachten der Wissenschaftlichen Dienste des Deutschen Bundestages kommt allerdings zu einem leicht anderen Schluss. Demnach verbiete die KI-Verordnung nicht den Aufbau einer Datenbank, sondern nur das „ungezielte Auslesen von Gesichtsbildern mittels KI […], da es die Privatsphäre und den Datenschutz der Betroffenen erheblich beeinträchtigt und das Gefühl ständiger Überwachung erzeugt“.

Das in der KI-Verordnung festgelegte Verbot gelte demnach nur dann, wenn die Strafverfolgungsbehörden die Datenbanken mit Hilfe von KI-Systemen erstellen. Werden dafür keine solchen Systeme verwendet, greife die Verordnung nicht. Die Kernfrage sei also, „ob – und wenn ja, wann – bei dem biometrischen Abgleich mit Bildern aus dem Internet KI ins Spiel kommt“.

Datenbanken von Bildern aus dem Internet könnten auch ohne Künstliche Intelligenz erstellt werden, schreiben die Wissenschaftlichen Dienste weiter. So können beispielsweise Bilder mit herkömmlichen Methoden aus dem Netz heruntergeladen und dann in einer Datenbank gespeichert werden.

„Der Einsatz von KI ist also nicht zwingend erforderlich, um einen biometrischen Abgleich mit Bildern aus dem Internet durchzuführen“, so das Fazit der Wissenschaftlichen Dienste, sondern es komme „auf die konkrete Ausgestaltung und technische Umsetzung des in den Gesetzesentwürfen vorgesehenen biometrischen Abgleichs an“.

Ministerium geht durch die Hintertür

Das Justizministerium argumentiert in die gleiche Richtung. In der Gesetzesbegründung schreibt das Ministerium, ein Verbot durch die KI-Verordnung gelte nicht, „sofern für das Auslesen der Daten keine KI-Systeme eingesetzt werden“.

Diese Auslegung vertritt auch die EU-Kommission in ihren Leitlinien zur Einhaltung der Verbote aus der KI-Verordnung. Die Sichtweise würde allerdings bedeuten, dass auch andere Datenbanken zur Gesichtersuche, etwa von kommerziellen Anbietern wie PimEyes und Clearview, in der EU nicht verboten wären.

Damit würde die Kommission explizit die erklärte Absicht des EU-Parlaments umgehen. Dieses hatte bei den Verhandlungen um die KI-Verordnung auf das Verbot bestanden, weil mit der Gesichtersuche die Anonymität im öffentlichen Raum bedroht wird und es die gesellschaftlichen Auswirkungen einer solchen Überwachungsmöglichkeit fürchtete.

Fachleute für den Schutz von Grundrechten weisen bereits seit Jahren auf die Gefahren hin, die mit der biometrischen Gesichtersuche einhergehen: Die biometrischen Merkmale eines Gesichtes sind unveränderlich. Mit Hilfe der Suche lassen sich Fotos einer Person im Internet finden – und darüber indirekt wahrscheinlich auch ihr Name, der Arbeitgeber oder der Wohnort. Ein Schnappschuss reicht dafür aus.

Das erhöht nicht nur das Risiko für Stalking, sondern kann dazu führen, dass man sich auch auf einer Demonstration, bei einem Arztbesuch oder in anderen Situationen ständig beobachtet fühlt und sein Verhalten entsprechend anpasst. Der Chaos Computer Club spricht in einer Stellungnahme von der „Idee einer allgegenwärtigen Überwachung und Datenrasterung, der niemand mehr ausweichen kann“.

Die Ministerien haben die Gesetzentwürfe jetzt an die Länder geschickt. Auch Verbände können jetzt bis Anfang April ihre Kritik und Verbesserungsvorschläge zu den Vorhaben einreichen – einiges davon könnte in die Entwürfe einfließen. Eines des Gesetze benötigt zudem die Zustimmung des Bundesrates.

Daniel Leisegang ist Politikwissenschaftler und Co-Chefredakteur bei netzpolitik.org. Zu seinen Schwerpunkten zählen die Gesundheitsdigitalisierung, Digital Public Infrastructure und die sogenannte Künstliche Intelligenz. Daniel war einst Redakteur bei den “Blättern”. 2014 erschien von ihm das Buch »Amazon – Das Buch als Beute«; 2016 erhielt er den Alternativen Medienpreis in der Rubrik “Medienkritik”. Er gehört dem Board of Trustees von Eurozine und dem Kuratorium der Stiftung Warentest an. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, Threema ENU3SC7K, Telefon: +49-30-5771482-28‬ (Montag bis Freitag, jeweils 8 bis 18 Uhr). Chris Köver recherchiert und schreibt über Migration, biometrische Überwachung, digitale Gewalt und Jugendschutz. Recherche-Anregungen und -Hinweise gerne per Mail oder via Signal (ckoever.24). Seit 2018 bei netzpolitik.org. Hat Kulturwissenschaften studiert und bei Zeit Online mit dem Schreiben begonnen, später das Missy Magazine mitgegründet und geleitet. Ihre Arbeit wurde ausgezeichnet mit dem Journalistenpreis Informatik, dem Grimme-Online-Award und dem Rainer-Reichert-Preis zum Tag der Pressefreiheit. Kontakt: E-Mail (OpenPGP), BlueSky, Mastodon, Signal: ckoever.24. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Biometrische Fotofahndung – Beueler-Extradienst

The State of Anti-Surveillance Design

To outsmart #surveillance systems, it’s helpful to understand them. #Facialrecognition —which identifies an individual face—works differently from #biometric scans that look at a person’s #iris or #fingerprints , & those systems work diff from #ALPR , which could in theory match an individual’s movements to a car through a DB. & consumer-level facial recognition systems, like #Pimeyes , operate using diff #algorithms & DB
#privacy

https://www.404media.co/the-state-of-anti-surveillance-design/

The State of Anti-Surveillance Design

The most effective surveillance-evading gear might already be in your closet.

404 Media

Digitaler Wochenrückblick 19. Oktober 2025

Die Bockwurst hat für sein unschlagbares Sicherheitspaket in der Kategorie Behörden und Verwaltung dieses Jahr den begehrten Big Brother Award 2025 abgeräumt. Herzlichen Glückwunsch an dieser Stelle von mir und im Namen aller Leserinnen und Leser des Extradienstes (hoffe ich,…).

Der Bockwurst wird zugutegehalten, dass er im Kampf gegen Kriminalität alle Register gezogen hat, die ihm genannt wurden. Ohne Rücksicht auf Verluste wurden bei ihm alle Wissenslücken zuverlässig geschlossen. Sein Beraterstab aus Praktikern und Sachverständigen der beteiligten Konzerne war hochrangig besetzt und konnte bei ihm fast alle Fehlinterpretationen ausräumen, wenngleich wesentliche Verständnisfragen nur unzureichend aufgeklärt werden konnten. Das wird aber durch sein politisches Amt locker ausgeglichen, eine Bockwurst muss nicht denken, sondern handeln!

Geübten Mutes verfügte er die „Bundes-VeRA“, vulgo Gotham und von Palantir, die im Zusammenspiel mit „Clearview AI“ und „PimEyes“ (Gesichtserkennung) eine wahre Gefühlsexplosion bei ihm auslöst. Ein Traum für jeden mittelbegabten Polizeimajor, bei dem – ganz zu Recht – Allmachtsphantasien ausgelöst werden.

Dieser (und nicht nur er) kann damit – ohne jegliche Vorkenntnis – ein Bild einer Person hochladen und die Software findet anhand des Gesichtes, wo sich diese Person in Social Media bereits entkleidet hat, der Rest findet sich in den Polizeidatenbanken. Dies ist vor allem auf die unermüdliche Vorarbeit von „Clearview AI“ und „PimEyes“ möglich geworden, die das ganze Internet nach Gesichtern durchkämmt hat, ob Social Media, Firmenwebseite, alte Schulfotos egal, es wurde gesucht, gefunden und verknüpft. Kein Gesicht bleibt unerkannt, ob Kleinkriminelle, Parksünder, Mörder oder einfach nur Du oder ich.

Kleinliche Verbote stören nur dieses prosperierende Geschäftsmodell und deshalb scannen sie ungebremst weiter das Internet, immer und überall.

Die Bockwurst sagt, die brauchen das! Nicht nur um Verbrecher zu finden, sondern auch Zeugen, die vorher noch niemals eine Straftat begangen haben, die fehlen schließlich in den Polzeidatenbanken. Noch! Und weil wir alle – ganz ohne kriminelle Energie – auch mal Zeugen werden könnten, ist es besser, wenn die Amis uns rechtzeitig im Namen der Bockwurst katalogisiert haben. Es ist schließlich eine Software für uns! Wozu noch Ausweise und Reisepässe, wenn wir dem System bereits vollständig bekannt sind.

Es ist nicht so, dass uns die Bockwurst allesamt unter Generalverdacht stellt – aber schließlich haben wir alle das Potenzial eine Straftat zu begehen. Mal ehrlich, wie viel getarnte Möchtegernmörder leben unter uns? Besser wir wissen, wer das ist, die müssen wir nicht gleich einsperren, aber lückenlos beobachten (Minority Report  der Film ist zwar geballter Stuss, zeigt aber die feuchten Träume einer Bockwurst)

All diese Wohltaten können nur mit zwei Ingredienzien zum Leben erweckt werden: Daten und eine Riesenmenge Geld für Software und Rechenzentren. Beides steht bei uns bis zum Überfluss bereit, wir müssen nur lernen loszulassen. Die Bockwurst möchte den Geld- und Datentransfer endlich ungebremst anschieben, was kann ihn noch daran hindern?

Der Bockwurst haben sie übrigens beigebracht zu sagen, es sei alles ganz harmlos, so etwas würden sie niemals anstreben. Die, die ihm das beigebracht haben, wissen genau, was sie tun.

Wir müssen aber auch die Vorteile erkennen, denn die vollständige Ausleuchtung der Privatsphäre war bislang nur den nordamerikanischen Social-Media-Konzernen möglich. Mit den Mitteln aus dem Sicherheitspaket der Bockwurst kaufen wir uns ein gutes Stück Kontrolle zurück, auch wenn es nicht ganz billig ist.

In erster Linie müssen die immensen Investitionen für die US-amerikanischen KI-Rechenzentren durch uns refinanziert werden. Vor diesem Problem steht auch Microsoft, einerseits treiben sie Geld für neue Lizenzen ein, aber das allein reicht nicht, die Opfer müssen ihre Gewohnheiten aufgeben und das nutzen, was ihnen angedient wird.

Die nächste Patrone steckt schon im Lauf, sie heißt „Hey Copilot“ und der mit Windows aufgeblähte PC soll auf Zuruf losackern. Glänzender Einfall, wenn die im Großraumbüro alle gleichzeitig quasseln. Oder ist es nicht für den Business-Case gedacht, sondern für den greisen Opa zu Hause, der mit „Hey Copilot“ seinen Herrn und Meister anweisen möchte, eine Kündigung für seine Rollator-App zu schreiben, die ihm das Ding tags zuvor angedreht hat, bis er gemerkt hat, wie die funktioniert: rein virtuell, also im Leben unbrauchbar.

Wer dieses hübsche KI-Feature nutzen will, muss noch ein paar Tage warten, kommt aber zuverlässig, wie die Funktion „Recall“. In den „Copilot Labs“ des Konzerns sollen sie zuhören lernen, also die Windows-Quasselstrippe schickt dann nicht nur alle Datenspenden in ihren digitalen Orkus, sondern hört auch beständig zu. Nicht zur Überwachung, nein, um Aufträge entgegenzunehmen, die eine KI so sinnvoll wie möglich ausführen soll.

Um dem Rechenknecht die Arbeit zu erleichtern, muss der Nutzer oder die geneigte Nutzerin alle lokalen Daten incl. Mail, Bildern freigeben, damit auch das vollständig eingeatmet werden kann, dessen Microsoft noch nicht habhaft werden konnte. Vor allem das Zeug, was noch auf Google-Drive oder den GMAIL-Konten lagert, brauchen sie, da kamen sie bislang nur über andere Umwege dran, wenn überhaupt.

Gleichzeitig sollte das Windows-Opfer dem Co-Piloten auch erlauben, Mails zu verschicken. Weil das – wie üblich bei Microsoft – alles nicht richtig funktioniert, sei es wichtig, es auch in der Praxis zu testen. Wie schön bunt das geht, sehen wir in deren Blogeintrag – ach so, für die, die es immer noch nicht gemacht haben, geht natürlich nur mit Windows 11.

Fühlen wir uns als Opfer? Oder können wir auch Sieger sein? Ich denke schon, nur das sieht dann nicht mehr so schön bunt und billig aus.

PS:
Noch ein Wort in eigener Sache: Wir haben ein neues Auto angeschafft und zur Refinanzierung geben wir Preziosen aus unserem Familienbesitz ab. Nachdem dem die Redaktion von „Bares für Rares“ abgesagt hat, haben wir es auf Kleinanzeigen einstellen müssen. Vielleicht ist es ja, was gerade gesucht wird, hier klicken!

(Hinweis: Möglichst oft draufklicken und den Link gerne weitergeben, ich probiere was aus…)

#Dobrindt möchte unbedingt #Palantir, #PimEyes und ähnlich dubiose Software fürs #BKA durchsetzen.

Was ist mit der digitalen Souveränität? Für Dobrindt anscheinend kein Thema.

Unverantwortlich!

https://www.tagesspiegel.de/dobrindt-will-palantir-fur-bka-und-bundespolizei-das-darf-niemals-zugelassen-werden-sagt-der-koalitionspartner-14539292.html

Dobrindt will Palantir für BKA und Bundespolizei: „Das darf niemals zugelassen werden“, sagt der Koalitionspartner

BKA und Bundespolizei sollen mehr Befugnisse bei Ermittlungen im Internet bekommen. Massive Kritik kommt aus der Zivilgesellschaft – und der SPD. Nun wurde die Abstimmung über einen Entwurf erneut verschoben. 

Der Tagesspiegel

Immerhin einmal haben Dobrindt und das BMI verdient gewonnen 🔥🔥🔥

"Der #BigBrotherAward 2025 in der Kategorie „Behörden und Verwaltung“ geht an Innenminister Alexander Dobrindt (CSU) für sein geplantes „Sicherheitspaket“, das den umfangreichen Einsatz von Gesichtersuchmaschinen vorsieht.

Dobrindts Behörde will mit datenschutzwidrigen Anbietern wie #Clearview AI und #PimEyes zusammenarbeiten, die auf alle online zu findenden Bilder zugreifen..."

#ProfessionellAngepisst 🔥
https://bigbrotherawards.de/2025/bundesminister-des-inneren-alexander-dobrindt

Bundesminister des Inneren Alexander Dobrindt

Der BigBrotherAward 2025 in der Kategorie „Behörden und Verwaltung“ geht an Innenminister Alexander Dobrindt (CSU) für sein geplantes „Sicherheitspaket“, das

Dringende Warnung vor Gesichtserkennung

Das Deutsche Institut für Menschenrechte drückt bei biometrischer Gesichtserkennung durch die Polizei auf die Bremse. Während das CSU-Innenministerium mehr Überwachung will, pocht eine umfassende Untersuchung auf die Gefahren und gibt sechs klare Empfehlungen.

Mit einem neuen Überwachungspaket will das CSU-geführte Innenministerium unter anderem mehr Befugnisse für biometrische Gesichtserkennung schaffen. Das heißt, Polizist*innen sollen viele Menschen auf einmal anhand ihres Gesichts identifizieren und verfolgen dürfen. Verkauft werden die Pläne als Sicherheitspaket. Zwanzig zivilgesellschaftliche Organisationen sehen Grundrechte in Gefahr und lehnen die Pläne ab.

Während nun die zuständigen Ministerien über den Entwurf beraten, hat das Deutsche Institut für Menschenrechte eine aufrüttelnde Untersuchung mit Warnungen und Empfehlungen vorgelegt. Das Institut wird vom Bundestag finanziert und beobachtet als unabhängige Institution die Lage der Menschenrechte in Deutschland.

Auf insgesamt 43 Seiten fassen die Menschenrechtler*innen die Gefahren durch biometrische Gesichtserkennung zusammen. So nennt man es, wenn man Menschen anhand ihrer einzigartigen Gesichtsmerkmale identifiziert. Das sind beispielsweise die Position und Abstände von Augen, Nase, Kinn und Ohren.

Die Expert*innen schildern in ihrer Studie auch die rechtlichen Grundlagen und beschreiben, wo Behörden die Technologie in Deutschland bereits einsetzen. Am Ende machen sie sechs Empfehlungen, für die CSU-Innenminister Alexander Dobrindt direkt das Hausaufgabenheft aufschlagen könnte. Wer sich nicht durch das ganze Papier wühlen möchte, findet hier die wichtigsten Fragen und Antworten.

Warum ist biometrische Gesichtserkennung besonders?

Viele dürften es seltsam finden, wenn sie immer ein Namensschild oder gar ihren Ausweis um den Hals tragen müssten. Doch mit biometrischer Gesichtserkennung wird das eigene Gesicht zu einer Art Ausweis. Man kann es nicht ablegen und nur schwer vor Kameras verbergen. Ob auf der Straße oder im Netz – wer sich nicht stark einschränken will, gibt sein Gesicht immer wieder potenzieller biometrischer Erfassung preis. Die Expert*innen vom Deutschen Institut für Menschenrechte schreiben:

Die Fähigkeit, Menschen aus der Ferne, ohne ihr Wissen und ihre Mitwirkung, zu identifizieren, macht Gesichtserkennung zu einem Sonderfall der biometrischen Identifizierung, die einschüchternde Wirkung entfalten kann.

Was macht Gesichtserkennung so gefährlich?

Aus der Studie des Instituts gehen gleich mehrere Gefahren hervor, die biometrische Gesichtserkennung besonders bedenklich machen. Zum Beispiel:

  • Falsche Verdächtigungen: Gesichtserkennung basiert auf Software, die Ähnlichkeiten erkennt. Dabei passieren Fehler. Das heißt, bei der Suche nach einem Verdächtigen kann die Polizei schlicht die falsche Person ins Visier nehmen und verfolgen. In den USA ist genau so etwas schon öfter passiert: Nach Verwechslungen mussten Unbeteiligte aufs Revier.
  • Diskriminierung: Gesichtserkennung funktioniert nicht bei jeder Person gleich gut. Gerade bei Frauen oder People of Color kann die Technologie mehr Fehler machen als bei weißen Männern. Den Forschenden zufolge stelle sich die Frage, ob der Einsatz der Technologie „gegen das grund- und menschenrechtliche Diskriminierungsverbot verstößt“.
  • Profilbildung: Biometrische Gesichtserkennung muss nicht nur punktuell geschehen. Man kann auch Personen immer wieder an mehreren Orten erkennen und dadurch Rückschlüsse ziehen. Es kann viel über einen Menschen verraten, mit wem er zum Beispiel häufig auf Demos gesichtet wird, ob er oft im Bankenviertel auftaucht oder auf dem Weg zu einer psychiatrischen Klinik. Die Forschenden verzichten zwar auf konkrete Beispiele, warnen aber vor solcher Profilbildung.
  • Einschüchterung: Allein das Wissen, dass Behörden per Kameras Gesichtserkennung betreiben und dass dabei Fehler passieren, kann Menschen verunsichern. Die Forschenden warnen deshalb vor Abschreckungseffekten („chilling effects“). Sie könnten dazu führen, dass Menschen „auf die Wahrnehmung etwa ihrer Meinungs- und Versammlungsfreiheit verzichten“. Konkretes Beispiel: Sie trauen sich nicht mehr auf eine Demo.
  • Hat die KI-Verordnung nicht schon alles geregelt?

    Leider nein. Die EU hat ihre Chance verpasst, biometrische Gesichtserkennung umfassend zu verbieten. Die KI-Verordnung (AI Act) formuliert nur rote Linien, die Mitgliedstaaten bei biometrischer Gesichtserkennung nicht überschreiten dürfen. Deutschland und andere EU-Staaten können aber weiterhin ihre eigenen Regeln schreiben – oder gar entscheiden, die Technologie für illegal zu erklären.
    Noch Anfang 2024 äußerten Bundestagsabgeordnete der Ampel den Wunsch, dass Deutschland seinen Spielraum aus der KI-Verordnung nicht ausreizt und etwa biometrische Echtzeit-Überwachung verbietet. Doch das ist Schnee von gestern. Bei der schwarz-roten Bundesregierung stehen die Zeichen nicht auf weniger Überwachung, sondern auf mehr.

    Wie viel Spielraum hat Deutschland bei Gesichtserkennung?

    Der Spielraum für biometrische Gesichtserkennung in Deutschland ist aus vielen Richtungen begrenzt. Das Institut für Menschenrechte beschreibt eine Art Slalom entlang mehrerer Vorschriften und Grundrechte.

    • Schon aus dem Recht auf Privatsphäre ergeben sich der Studie zufolge hohe Hürden für Gesichtserkennung. „Bereits die Speicherung von Lichtbildern, verbunden mit der bloßen Möglichkeit einer Gesichtserkennung, greift in das Menschenrecht auf Privatsphäre ein“, warnen die Forschenden.
    • Konkretere Einschränkungen liefert die KI-Verordnung selbst. Für Gesichtserkennung in Echtzeit sind die Hürden höher. Hier müssen Behörden etwa Folgen für Grundrechte abschätzen und brauchen vor jeder Verwendung eine Genehmigung, etwa durch ein Gericht. Bei nachträglicher Gesichtserkennung wird die KI-Verordnung jedoch laxer – und es ist nicht einmal klar definiert, ab wann der Einsatz als nachträglich gilt.
    • Ein System zur Gesichtserkennung braucht eine Datenbank, um Gesichter abzugleichen und Personen zuzuordnen. Kommerzielle Anbieter wie PimEyes oder Clearview AI, die Milliarden Gesichter kennen, kommen der Studie zufolge für Behörden jedoch nicht in Frage. Die KI-Verordnung verbietet nämlich Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Eine Alternative sind staatliche Lichtbilddatenbanken. Dort liegen die Bilder von erkennungsdienstlich registrierten Personen – darunter Tatverdächtige und Asylsuchende.
    • Dann gibt es noch die EU-Richtlinie zum Datenschutz bei Polizei und Strafjustiz, kurz: JI-Richtlinie. Ähnlich wie die Datenschutzgrundverordnung (DSGVO) beschreibt die Richtlinie biometrische Daten als besonders schützenswert. „Deren polizeiliche Verarbeitung ist demnach nur dann erlaubt, wenn sie unbedingt erforderlich ist“, fasst die Studie zusammen.
    • Sollte das Thema einmal beim Bundesverfassungsgericht landen, dürfte es den Richter*innen wohl ums Recht auf informationelle Selbstbestimmung gehen. Die Forschenden erinnern an ältere Rechtsprechung zur Kfz-Kennzeichenkontrolle. Ob nun Autokennzeichen erfasst werden oder Gesichter – die Situation ist vergleichbar. Schon damals habe das Gericht festgestellt, dass „jeder einzelne Datenverarbeitungsvorgang grundsätzlich einen Grundrechtseingriff“ darstelle.

    Längst zeigen Fälle und Pilotprojekte aus den Bundesländern, wie Behörden einfach mal loslegen. Bereits 2020 hatte das BKA nach Protesten zum G20-Gipfel in Hamburg Gesichtserkennung eingesetzt. Das Land Hessen will Gesichtserkennung am Hauptbahnhof Frankfurt/Main haben. Das Land Sachsen hat Gesichtserkennung in der Region Görlitz genutzt – zum Ärger der Landesdatenschutzbeauftragten, die das für teils verfassungswidrig hielt. Einige der Beispiele tauchen auch in der Studie auf. Die Forschenden warnen vor der „rapiden Entwicklung“.

    Was empfehlen die Menschenrechtsexpert*innen?

    Trotz ihrer Warnungen lehnen die Forschenden biometrische Gesichtserkennung nicht generell ab. Das unterscheidet sich von der Position einiger zivilgesellschaftlicher Institutionen, die sich schlicht für den Stopp der Technologie stark machen. Ein klares Nein könnte jahrelange Unsicherheit und Rechtsstreitigkeiten vermeiden.

    Die Menschenrechtler*innen formulieren stattdessen sechs teils dringliche Empfehlungen. An ihnen kann sich Schwarz-Rot messen lassen.

  • Zuerst signalisieren die Forschenden Halt, Stopp!, wenn auch in anderen Worten. Sie warnen vor „erheblichen rechtlichen und ethischen Fragen“ und halten es für „unerlässlich, diese Technologie nicht vorschnell einzuführen“. Stattdessen empfehlen sie, zuerst Fachleute an die Sache heranzulassen. Es braucht demnach eine „Enquete-Kommission mit Vertreter*innen aus Polizei, Daten- und Diskriminierungsschutz, Zivilgesellschaft und Wissenschaft“, um das Thema öffentlich zu diskutieren.
  • Zweitens soll es erst einmal nicht mehr, sondern weniger Gesichtserkennung geben. Der Zugriff der Polizei auf bereits bestehende staatliche Gesichtsdatenbanken soll beschränkt werden, und zwar „dringend“, wie die Forschenden schreiben. Es brauche „klar normierte, anlassbezogene Suchen“, um „unverhältnismäßige Eingriffe in die Privatsphäre zu vermeiden“.
  • Drittens empfehlen die Forschenden ein Verbot von „digitaler polizeilicher Beobachtung“. Hier geht es darum, dass Gesichtserkennung nicht punktuell ist, sondern eben auch Material für umfangreiche Persönlichkeitsprofile liefern könnte.
  • Viertens soll den Forschenden zufolge biometrische Gesichtserkennung unter Richtervorbehaltgestellt werden. Das sieht die KI-Verordnung nur bei Gesichtserkennung in Echtzeit vor, nicht aber bei nachträglicher Erkennung. Deutschland darf das jedoch strenger regeln.
  • Fünftens verlangen die Forschenden Transparenz bei polizeilicher Gesichtserkennung, „damit eine demokratische Kontrolle gewährleistet ist“. Das Institut für Menschenrechte empfiehlt Bund und Ländern, dass sie auch öffentlich einsehbar machen, welche Systeme sie für den Einsatz registrieren. Laut KI-Verordnung müssten sie das nicht öffentlich tun.
  • Zuletzt sollte Gesichtserkennung den Menschenrechtler*innen zufolge nicht bis auf Weiteres eingeführt werden, sondern allenfalls für begrenzte Zeit. Danach könne man prüfen, neu bewerten und „idealerweise“ die Folgen für Grundrechte abschätzen.
  • Wie geht es jetzt weiter?

    Das CSU-Innenministerium hat mit seinen Referentenentwürfen den ersten Schritt gemacht. Falls sich die schwarz-rote Regierung auf einen gemeinsamen Entwurf einigt, wären als nächstes Bundestag und Bundesrat an der Reihe.

    Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

    Dringende Warnung vor Gesichtserkennung – Beueler-Extradienst

    Biometrie ohne Bremse

    Gesichtersuche im Asylverfahren – Das Bundesinnenministerium will mehr biometrische Gesichtersuche im Asylverfahren und streicht dafür Vorgaben zu Transparenz und Datenschutz. Die Pläne könnten gegen EU-Recht verstoßen.

    Das Bundesinnenministerium plant, die Hürden für den Einsatz von Gesichter-Suchmaschinen im Asylverfahren weiter zu senken. Die Änderung am Asylgesetz ist Teil eines Gesetzespakets aus dem Haus von Innenminister Alexander Dobrindt (CSU). Es soll dem Bundesamt für Migration und Flüchtlinge (BAMF) erlauben, die Fotos von Asylsuchenden „mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet“ biometrisch abzugleichen, wenn diese keine Ausweispapiere vorlegen.

    Eine entsprechende Regelung im Asylgesetz war bereits im vergangenen Oktober als Teil des sogenannten Sicherheitspakets verabschiedet worden – mit den Stimmen der Ampel-Regierung. Das BAMF darf also schon die biometrische Gesichtersuche im Asylverfahren einsetzen.

    Biometrische Suche statt milderer Mittel

    Das aktuelle Gesetz sieht allerdings eine Reihe von Hürden vor. Der Einsatz ist als Ultima Ratio vorgesehen, wenn das BAMF die Identität nicht mithilfe „milderer Mittel“ klären kann. Das könnte etwa eine Heiratsurkunde oder andere Dokumente sein, die Name und Staatsangehörigkeit der Betroffenen nachweisen. Diese Einschränkung ist im neuen Referentenentwurf aus dem BMI gestrichen.

    Auch ist bisher vorgeschrieben, dass die Betroffenen vorab über „den Zweck, Umfang und die Durchführung“ informiert werden müssen. Wann und mit welchem Programm der Abgleich erfolgte, muss protokolliert werden. Nach Abschluss der Maßnahme muss die zuständige Datenschutzaufsicht davon erfahren.

    Diese Auflagen will das BMI streichen. Gleichzeitig soll das BAMF neue Befugnisse bekommen. Es soll personenbezogene Daten jetzt auch international übermitteln dürfen, wenn es um den „Schutz der nationalen Sicherheit“ geht. Damit können die biometrischen Daten der Personen gemeint sein oder auch die Informationen, die das BAMF durch den Einsatz der Gesichter-Suchmaschinen erlangt hat.

    Superdatenbanken mit Milliarden Gesichtern

    Biometrische Gesichter-Suchmaschinen wie Clearview oder PimEyes erlauben es, mit einem beliebigen Foto einer Person weitere Treffer zu ihrem Gesicht im öffentlichen Internet zu finden, auch wenn diese verwackelt sind oder die Person in einer größeren Menschenansammlung aufgenommen wurde. Das können etwa Aufnahmen auf Facebook, YouTube oder PornHub sein – oder ein Bild, das am Rande einer Demo oder Sportveranstaltung geschossen wurde.

    Um den Abgleich in Sekunden durchführen zu können, erstellen die Betreiber der Suchmaschinen große Datenbanken, in denen sie die biometrischen Daten von Milliarden Gesichtern als mathematische Repräsentation speichern. Dafür durchsuchen sie massenweise und anlasslos das öffentliche Internet und verarbeiten die gefundenen Gesichter. Das geschieht ohne Einwilligung der betroffenen Personen.

    Solche kommerziellen Gesichter-Suchmaschinen sind in der EU verboten. Die KI-Verordnung untersagt „die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsmaterial erstellen oder erweitern“. Auch die Datenschutzgrundverordnung erlaubt die Verarbeitung von biometrischen Daten nur in Ausnahmefällen. Das BAMF müsste daher zunächst eine legale technische Lösung entwickeln lassen. Die Bundesdatenschutzbeauftragte nannte eine solche Umsetzung „unrealistisch“.

    Laut den Plänen des Bundesinnenministeriums sollen auch das Bundeskriminalamt und die Bundespolizei mit Hilfe des biometrischen Abgleiches im Internet nach Personen fahnden dürfen. Das BKA soll damit nicht nur Verdächtige suchen, sondern auch Opfer und Zeugen. Bei Befragungen im Bundestag konnten die Behördenvertreter nicht beantworten, wie der Abgleich geschehen soll, ohne gegen die EU-Gesetzgebung zu verstoßen. In der Begründung des neuen Entwurfes heißt es dazu nur, die Vorgaben aus der KI-Verordnung seien zu beachten.

    „Gesichtsbilder sind höchstpersönliche Daten, deren biometrische Verarbeitung die Datenschutzgrundverordnung nur in wenigen Ausnahmen zulässt“, sagt Eric Töpfer, der am Deutschen Institut für Menschenrechte zu Grundrechten im Migrationsprozess arbeitet und schon die Änderung des Asylgesetzes im vergangenen Herbst für den Bundestag kommentiert hat. „Bereits die Befugnis fürs BAMF zum Internetabgleich aus dem ersten Sicherheitspaket war unverhältnismäßig“, sagt er. „Nun sollen offensichtlich auch die letzten Garantien zum Schutz von Betroffenenrechten geschleift werden.“

    Noch in der Abstimmung

    Die Pläne sind in einem frühen Stadium. Das Bundesinnenministerium hat sie zur Abstimmung an andere Ministerien verschickt. Danach folgt eine Länder- und Verbändebeteiligung, bevor das Kabinett das Paket beschließt und es an den Bundestag geht.

    Das Bundesinnenministerium hat das neue Gesetzespaket in zwei Teile geteilt. Die Neufassung des Asylgesetzes befindet sich im ersten Teil, der keine Zustimmung des Bundesrates braucht.

    “Entwurf”>Auszug aus dem Referentenentwurf „Entwurf eines ersten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit“ des BMI vom 25. Juli 2025

    § 15b – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet

    (1) Das nach § 16 Absatz 1 Satz 1 und 2 erhobene biometrische Lichtbild des Ausländers darf mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgeglichen werden, wenn es zur Feststellung der Identität oder Staatsangehörigkeit erforderlich ist, da der Ausländer keinen gültigen Pass oder Passersatz besitzt. Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.

    (2) Die im Rahmen des Abgleichs nach Absatz 1 erhobenen Daten sind nach Durchführung des Abgleichs unverzüglich zu löschen, sofern sie für die Feststellung der Identität oder Staatsangehörigkeit nicht mehr erforderlich sind.

    (3) Bei der Übermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union kann das Bundesamt personenbezogene Daten an öffentliche und nichtöffentliche Stellen übermitteln, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist.

    (4) Im internationalen Bereich kann das Bundesamt personenbezogene Daten an Öffentliche und nichtöffentliche Stellen übermitteln, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist und von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist.

    Bisherige Fassung des § 15b Asylgesetz (im neuen Entwurf gestrichene Passagen von netzpolitik.org markiert)

    § 15b – Nachträglicher biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet

    (1) Das nach § 16 Absatz 1 Satz 1 und 2 erhobene biometrische Lichtbild des Ausländers darf mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgeglichen werden, wenn der Ausländer keinen gültigen Pass- oder Passersatz besitzt, der Abgleich für die Feststellung der Identität oder Staatsangehörigkeit des Ausländers erforderlich ist und der Zweck der Maßnahme nicht durch mildere Mittel erreicht werden kann. Liegen tatsächliche Anhaltspunkte für die Annahme vor, dass durch eine Maßnahme nach Satz 1 allein Erkenntnisse aus dem Kernbereich privater Lebensgestaltung erlangt wird, ist die Maßnahme unzulässig. Erkenntnisse aus dem Kernbereich privater Lebensgestaltung, die durch den Abgleich erlangt wurden, dürfen nicht verwertet werden. Aufzeichnungen hierüber sind unverzüglich zu löschen. Die Tatsache ihrer Erlangung und Löschung ist aktenkundig zu machen. Ein Abgleich mit Daten nach Satz 1 aus im Internet öffentlich zugänglichen Echtzeit-Lichtbild- und Echtzeit-Videodateien ist ausgeschlossen.

    (2) Die Treffer des Abgleichs sind durch Inaugenscheinnahme zu überprüfen. Zweifel an der Richtigkeit der Treffer gehen nicht zu Lasten des Ausländers.

    (3) Die im Rahmen des Abgleichs nach Absatz 1 erhobenen Daten sind nach Durchführung des Abgleichs unverzüglich zu löschen, sobald sie für die Feststellung der Identität oder Staatsangehörigkeit nicht mehr erforderlich sind. Der Abgleich und das Löschen von Daten ist in der Asylakte zu dokumentieren.

    (4) Bei jeder Maßnahme nach Absatz 1 sind die Bezeichnung der eingesetzten automatisierten Anwendung zur Datenverarbeitung, der Zeitpunkt ihres Einsatzes und die Organisationseinheit, die die Maßnahme durchführt, zu protokollieren. Nach Beendigung einer Maßnahme nach Absatz 1 ist die Stelle zu unterrichten, die für die Kontrolle der Einhaltung der Vorschriften über den Datenschutz bei öffentlichen Stellen zuständig ist.

    (5) Die betroffene Person ist über den Zweck, den Umfang und die Durchführung des biometrischen Abgleichs vorab in verständlicher Weise zu informieren.

    (6) Durch geeignete technische und organisatorische Maßnahmen ist sicherzustellen, dass kein unberechtigter Zugriff auf die erhobenen Daten erfolgt.

    (7) Für die in den Absätzen 1 bis 6 genannten Maßnahmen ist das Bundesamt zuständig. Es hat dabei sicherzustellen, dass diskriminierende Algorithmen weder herausgebildet noch verwendet werden. Soweit technisch möglich, muss die Nachvollziehbarkeit des verwendeten Verfahrens sichergestellt werden.

    Chris Köver recherchiert und schreibt über Migrationskontrolle, biometrische Überwachung, digitale Gewalt und Jugendschutz. Recherche-Anregungen und -Hinweise gerne per Mail oder via Signal (ckoever.24). Seit 2018 bei netzpolitik.org. Hat Kulturwissenschaften studiert und bei Zeit Online mit dem Schreiben begonnen, später eine eigene Zeitschrift mitgegründet. Ihre Arbeit wurden ausgezeichnet mit dem Journalistenpreis Informatik, dem Grimme-Online-Award und dem Rainer-Reichert-Preis zum Tag der Pressefreiheit. Kontakt: E-Mail (OpenPGP), BlueSky, Mastodon, Signal: ckoever.24. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

    Biometrie ohne Bremse – Beueler-Extradienst

    #PimEyes: Eine polnische Firma schafft gerade unsere #Anonymität ab

    "Recherchen von netzpolitik org zeigen das #Missbrauchspotenzial von PimEyes, einer kostenlosen Suchmaschine für 900 Millionen Gesichter. Alle, von denen es Fotos im Internet gibt, könnten schon Teil ihrer Datenbank sein."
    https://netzpolitik.org/2020/gesichter-suchmaschine-pimeyes-schafft-anonymitaet-ab/

    PimEyes: Eine polnische Firma schafft gerade unsere Anonymität ab

    Recherchen von netzpolitik.org zeigen das Missbrauchspotenzial von PimEyes, einer kostenlosen Suchmaschine für 900 Millionen Gesichter. Alle, von denen es Fotos im Internet gibt, könnten schon Teil ihrer Datenbank sein.

    netzpolitik.org

    #PimEyes hat Konkurrenz bekommen. Nachdem die Gesichter-Suchmaschine bislang kaum nennenswerte Probleme mit Behörden hatte, breitet sich das Geschäftsmodell weiter aus – #DSGVO und #AIAct zum Trotz.

    Mit @sebmeineck zu neuen Anbietern recherchiert und zur Frage, wer eigentlich dafür zuständig wäre, die Verbote durchzusetzen.

    https://netzpolitik.org/2025/behoerden-schauen-zu-ki-suche-fuer-gesichter-breitet-sich-ungehindert-aus/

    Behörden schauen zu: KI-Suche für Gesichter breitet sich ungehindert aus

    Fotos im Internet auslesen, um daraus eine Datenbank für Gesichtserkennung zu bauen – das verbietet die KI-Verordnung. Aber Anbieter von Gesichter-Suchmaschinen werben selbstbewusst für ihre Abos. Während Aufsichtsbehörden auf der Stelle treten, schlagen Politiker*innen Alarm.

    netzpolitik.org
    #PimEyes hat Konkurrenz bekommen. Nachdem die Gesichter-Suchmaschine bislang kaum nennenswerte Probleme mit Behörden hatte, breitet sich das Geschäftsmodell weiter aus – #DSGVO und #AIAct zum Trotz. Mit @sebmeineck.bsky.social zu neuen Anbietern recherchiert /1 netzpolitik.org/2025/behoerd...

    Behörden schauen zu: KI-Suche ...
    Sebastian Meineck (@sebmeineck.bsky.social)

    📝 Journalist @ netzpolitik.org 🧭 AI, Databroker, digitale Gewalt 📬 #OSINT Newsletter: https://sebmeineck.substack.com/ 💬 E-Mail / Messenger: https://netzpolitik.org/author/sebastian/ 🌈 he/him

    Bluesky Social