Dringende Warnung vor Gesichtserkennung
Das Deutsche Institut fĂŒr Menschenrechte drĂŒckt bei biometrischer Gesichtserkennung durch die Polizei auf die Bremse. WĂ€hrend das CSU-Innenministerium mehr Ăberwachung will, pocht eine umfassende Untersuchung auf die Gefahren und gibt sechs klare Empfehlungen.
Mit einem neuen Ăberwachungspaket will das CSU-gefĂŒhrte Innenministerium unter anderem mehr Befugnisse fĂŒr biometrische Gesichtserkennung schaffen. Das heiĂt, Polizist*innen sollen viele Menschen auf einmal anhand ihres Gesichts identifizieren und verfolgen dĂŒrfen. Verkauft werden die PlĂ€ne als Sicherheitspaket. Zwanzig zivilgesellschaftliche Organisationen sehen Grundrechte in Gefahr und lehnen die PlĂ€ne ab.
WĂ€hrend nun die zustĂ€ndigen Ministerien ĂŒber den Entwurf beraten, hat das Deutsche Institut fĂŒr Menschenrechte eine aufrĂŒttelnde Untersuchung mit Warnungen und Empfehlungen vorgelegt. Das Institut wird vom Bundestag finanziert und beobachtet als unabhĂ€ngige Institution die Lage der Menschenrechte in Deutschland.
Auf insgesamt 43 Seiten fassen die Menschenrechtler*innen die Gefahren durch biometrische Gesichtserkennung zusammen. So nennt man es, wenn man Menschen anhand ihrer einzigartigen Gesichtsmerkmale identifiziert. Das sind beispielsweise die Position und AbstÀnde von Augen, Nase, Kinn und Ohren.
Die Expert*innen schildern in ihrer Studie auch die rechtlichen Grundlagen und beschreiben, wo Behörden die Technologie in Deutschland bereits einsetzen. Am Ende machen sie sechs Empfehlungen, fĂŒr die CSU-Innenminister Alexander Dobrindt direkt das Hausaufgabenheft aufschlagen könnte. Wer sich nicht durch das ganze Papier wĂŒhlen möchte, findet hier die wichtigsten Fragen und Antworten.
Warum ist biometrische Gesichtserkennung besonders?
Viele dĂŒrften es seltsam finden, wenn sie immer ein Namensschild oder gar ihren Ausweis um den Hals tragen mĂŒssten. Doch mit biometrischer Gesichtserkennung wird das eigene Gesicht zu einer Art Ausweis. Man kann es nicht ablegen und nur schwer vor Kameras verbergen. Ob auf der StraĂe oder im Netz â wer sich nicht stark einschrĂ€nken will, gibt sein Gesicht immer wieder potenzieller biometrischer Erfassung preis. Die Expert*innen vom Deutschen Institut fĂŒr Menschenrechte schreiben:
Die FĂ€higkeit, Menschen aus der Ferne, ohne ihr Wissen und ihre Mitwirkung, zu identifizieren, macht Gesichtserkennung zu einem Sonderfall der biometrischen Identifizierung, die einschĂŒchternde Wirkung entfalten kann.
Was macht Gesichtserkennung so gefÀhrlich?
Aus der Studie des Instituts gehen gleich mehrere Gefahren hervor, die biometrische Gesichtserkennung besonders bedenklich machen. Zum Beispiel:
Falsche VerdĂ€chtigungen: Gesichtserkennung basiert auf Software, die Ăhnlichkeiten erkennt. Dabei passieren Fehler. Das heiĂt, bei der Suche nach einem VerdĂ€chtigen kann die Polizei schlicht die falsche Person ins Visier nehmen und verfolgen. In den USA ist genau so etwas schon öfter passiert: Nach Verwechslungen mussten Unbeteiligte aufs Revier.Diskriminierung: Gesichtserkennung funktioniert nicht bei jeder Person gleich gut. Gerade bei Frauen oder People of Color kann die Technologie mehr Fehler machen als bei weiĂen MĂ€nnern. Den Forschenden zufolge stelle sich die Frage, ob der Einsatz der Technologie âgegen das grund- und menschenrechtliche Diskriminierungsverbot verstöĂtâ.Profilbildung: Biometrische Gesichtserkennung muss nicht nur punktuell geschehen. Man kann auch Personen immer wieder an mehreren Orten erkennen und dadurch RĂŒckschlĂŒsse ziehen. Es kann viel ĂŒber einen Menschen verraten, mit wem er zum Beispiel hĂ€ufig auf Demos gesichtet wird, ob er oft im Bankenviertel auftaucht oder auf dem Weg zu einer psychiatrischen Klinik. Die Forschenden verzichten zwar auf konkrete Beispiele, warnen aber vor solcher Profilbildung.EinschĂŒchterung: Allein das Wissen, dass Behörden per Kameras Gesichtserkennung betreiben und dass dabei Fehler passieren, kann Menschen verunsichern. Die Forschenden warnen deshalb vor Abschreckungseffekten (âchilling effectsâ). Sie könnten dazu fĂŒhren, dass Menschen âauf die Wahrnehmung etwa ihrer Meinungs- und Versammlungsfreiheit verzichtenâ. Konkretes Beispiel: Sie trauen sich nicht mehr auf eine Demo.Hat die KI-Verordnung nicht schon alles geregelt?
Leider nein. Die EU hat ihre Chance verpasst, biometrische Gesichtserkennung umfassend zu verbieten. Die KI-Verordnung (AI Act) formuliert nur rote Linien, die Mitgliedstaaten bei biometrischer Gesichtserkennung nicht ĂŒberschreiten dĂŒrfen. Deutschland und andere EU-Staaten können aber weiterhin ihre eigenen Regeln schreiben â oder gar entscheiden, die Technologie fĂŒr illegal zu erklĂ€ren.
Noch Anfang 2024 Ă€uĂerten Bundestagsabgeordnete der Ampel den Wunsch, dass Deutschland seinen Spielraum aus der KI-Verordnung nicht ausreizt und etwa biometrische Echtzeit-Ăberwachung verbietet. Doch das ist Schnee von gestern. Bei der schwarz-roten Bundesregierung stehen die Zeichen nicht auf weniger Ăberwachung, sondern auf mehr.
Wie viel Spielraum hat Deutschland bei Gesichtserkennung?
Der Spielraum fĂŒr biometrische Gesichtserkennung in Deutschland ist aus vielen Richtungen begrenzt. Das Institut fĂŒr Menschenrechte beschreibt eine Art Slalom entlang mehrerer Vorschriften und Grundrechte.
- Schon aus dem Recht auf PrivatsphĂ€re ergeben sich der Studie zufolge hohe HĂŒrden fĂŒr Gesichtserkennung. âBereits die Speicherung von Lichtbildern, verbunden mit der bloĂen Möglichkeit einer Gesichtserkennung, greift in das Menschenrecht auf PrivatsphĂ€re einâ, warnen die Forschenden.
- Konkretere EinschrĂ€nkungen liefert die KI-Verordnung selbst. FĂŒr Gesichtserkennung in Echtzeit sind die HĂŒrden höher. Hier mĂŒssen Behörden etwa Folgen fĂŒr Grundrechte abschĂ€tzen und brauchen vor jeder Verwendung eine Genehmigung, etwa durch ein Gericht. Bei nachtrĂ€glicher Gesichtserkennung wird die KI-Verordnung jedoch laxer â und es ist nicht einmal klar definiert, ab wann der Einsatz als nachtrĂ€glich gilt.
- Ein System zur Gesichtserkennung braucht eine Datenbank, um Gesichter abzugleichen und Personen zuzuordnen. Kommerzielle Anbieter wie PimEyes oder Clearview AI, die Milliarden Gesichter kennen, kommen der Studie zufolge fĂŒr Behörden jedoch nicht in Frage. Die KI-Verordnung verbietet nĂ€mlich Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Eine Alternative sind staatliche Lichtbilddatenbanken. Dort liegen die Bilder von erkennungsdienstlich registrierten Personen â darunter TatverdĂ€chtige und Asylsuchende.
- Dann gibt es noch die EU-Richtlinie zum Datenschutz bei Polizei und Strafjustiz, kurz: JI-Richtlinie. Ăhnlich wie die Datenschutzgrundverordnung (DSGVO) beschreibt die Richtlinie biometrische Daten als besonders schĂŒtzenswert. âDeren polizeiliche Verarbeitung ist demnach nur dann erlaubt, wenn sie unbedingt erforderlich istâ, fasst die Studie zusammen.
- Sollte das Thema einmal beim Bundesverfassungsgericht landen, dĂŒrfte es den Richter*innen wohl ums Recht auf informationelle Selbstbestimmung gehen. Die Forschenden erinnern an Ă€ltere Rechtsprechung zur Kfz-Kennzeichenkontrolle. Ob nun Autokennzeichen erfasst werden oder Gesichter â die Situation ist vergleichbar. Schon damals habe das Gericht festgestellt, dass âjeder einzelne Datenverarbeitungsvorgang grundsĂ€tzlich einen Grundrechtseingriffâ darstelle.
LĂ€ngst zeigen FĂ€lle und Pilotprojekte aus den BundeslĂ€ndern, wie Behörden einfach mal loslegen. Bereits 2020 hatte das BKA nach Protesten zum G20-Gipfel in Hamburg Gesichtserkennung eingesetzt. Das Land Hessen will Gesichtserkennung am Hauptbahnhof Frankfurt/Main haben. Das Land Sachsen hat Gesichtserkennung in der Region Görlitz genutzt â zum Ărger der Landesdatenschutzbeauftragten, die das fĂŒr teils verfassungswidrig hielt. Einige der Beispiele tauchen auch in der Studie auf. Die Forschenden warnen vor der ârapiden Entwicklungâ.
Was empfehlen die Menschenrechtsexpert*innen?
Trotz ihrer Warnungen lehnen die Forschenden biometrische Gesichtserkennung nicht generell ab. Das unterscheidet sich von der Position einiger zivilgesellschaftlicher Institutionen, die sich schlicht fĂŒr den Stopp der Technologie stark machen. Ein klares Nein könnte jahrelange Unsicherheit und Rechtsstreitigkeiten vermeiden.
Die Menschenrechtler*innen formulieren stattdessen sechs teils dringliche Empfehlungen. An ihnen kann sich Schwarz-Rot messen lassen.
Zuerst signalisieren die Forschenden Halt, Stopp!, wenn auch in anderen Worten. Sie warnen vor âerheblichen rechtlichen und ethischen Fragenâ und halten es fĂŒr âunerlĂ€sslich, diese Technologie nicht vorschnell einzufĂŒhrenâ. Stattdessen empfehlen sie, zuerst Fachleute an die Sache heranzulassen. Es braucht demnach eine âEnquete-Kommission mit Vertreter*innen aus Polizei, Daten- und Diskriminierungsschutz, Zivilgesellschaft und Wissenschaftâ, um das Thema öffentlich zu diskutieren.Zweitens soll es erst einmal nicht mehr, sondern weniger Gesichtserkennung geben. Der Zugriff der Polizei auf bereits bestehende staatliche Gesichtsdatenbanken soll beschrĂ€nkt werden, und zwar âdringendâ, wie die Forschenden schreiben. Es brauche âklar normierte, anlassbezogene Suchenâ, um âunverhĂ€ltnismĂ€Ăige Eingriffe in die PrivatsphĂ€re zu vermeidenâ.Drittens empfehlen die Forschenden ein Verbot von âdigitaler polizeilicher Beobachtungâ. Hier geht es darum, dass Gesichtserkennung nicht punktuell ist, sondern eben auch Material fĂŒr umfangreiche Persönlichkeitsprofile liefern könnte.Viertens soll den Forschenden zufolge biometrische Gesichtserkennung unter Richtervorbehaltgestellt werden. Das sieht die KI-Verordnung nur bei Gesichtserkennung in Echtzeit vor, nicht aber bei nachtrĂ€glicher Erkennung. Deutschland darf das jedoch strenger regeln.FĂŒnftens verlangen die Forschenden Transparenz bei polizeilicher Gesichtserkennung, âdamit eine demokratische Kontrolle gewĂ€hrleistet istâ. Das Institut fĂŒr Menschenrechte empfiehlt Bund und LĂ€ndern, dass sie auch öffentlich einsehbar machen, welche Systeme sie fĂŒr den Einsatz registrieren. Laut KI-Verordnung mĂŒssten sie das nicht öffentlich tun.Zuletzt sollte Gesichtserkennung den Menschenrechtler*innen zufolge nicht bis auf Weiteres eingefĂŒhrt werden, sondern allenfalls fĂŒr begrenzte Zeit. Danach könne man prĂŒfen, neu bewerten und âidealerweiseâ die Folgen fĂŒr Grundrechte abschĂ€tzen.Wie geht es jetzt weiter?
Das CSU-Innenministerium hat mit seinen ReferentenentwĂŒrfen den ersten Schritt gemacht. Falls sich die schwarz-rote Regierung auf einen gemeinsamen Entwurf einigt, wĂ€ren als nĂ€chstes Bundestag und Bundesrat an der Reihe.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter ĂŒber Online-Recherche und gibt Workshops an UniversitĂ€ten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekĂŒrt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian fĂŒr O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Ăbernahme von netzpolitik, gemĂ€ss Lizenz Creative Commons BY-NC-SA 4.0.