Kein Wort ohne meinen Anwalt – Der #Jura-#Podcast: #Palantir – Die #Datenkrake im Dienst des Staates

Was, wenn der #Staat alles ĂŒber dich weiß – noch bevor du selbst es tust?

Die Software Palantir gilt als mĂ€chtigstes #Überwachung-Tool der Welt. UrsprĂŒnglich entwickelt fĂŒr den "War on Terror" in den #USA, kommt sie inzwischen auch in #Deutschland zum Einsatz –
offiziell fĂŒr die VerbrechensbekĂ€mpfung. Doch Kritiker warnen: Mit Palantir verschwimmen die Grenzen zwischen #Sicherheit und totaler #Kontrolle.

In dieser Folge sprechen wir mit Prof. Dr. Dennis-Kenji Kipker vom Cyberintelligence Institute und Michael Kolain von ai-laws.org ĂŒber die geheimen Methoden, die Gefahren fĂŒr unsere Freiheit – und warum Palantir vielleicht mehr ĂŒber dich weiß, als dir lieb ist.

Webseite der Episode: https://keinwortohnemeinenanwalt.de/

Mediendatei: https://lcdn.letscast.fm/media/podcast/f647360e/episode/a7002405.mp3?t=1756214545

@digitalcourage

#InformationelleSelbstbestimmung
#SicherheitsPaket
#Grundrechte
#Verfassung
#Verfassungswidrig
#Verfassungsschutz
#1984
#MinorityReport

KWOMA - Kein Wort Ohne Meinen Anwalt – Home

KWOMA - Kein Wort Ohne Meinen Anwalt
Der 149. Netzpolitische Abend am 2. September ĂŒber das Innenministerium und seine aktuellen PlĂ€ne zum #Sicherheitspaket und die europĂ€ischen PlĂ€ne zur #Vorratsdatenspeicherung digitalegesellschaft.de/2025/08/149-...

149. Netzpolitischer Abend – D...
149. Netzpolitischer Abend – Digitale Gesellschaft

Der 149. Netzpolitische Abend am 2. September ĂŒber das Innenministerium und seine aktuellen PlĂ€ne zum #Sicherheitspaket und die europĂ€ischen PlĂ€ne zur #Vorratsdatenspeicherung https://digitalegesellschaft.de/2025/08/149-netzpolitischer-abend/
ParlamentsPREVIEW: Sicherheitspaket 2 (mit Andre Meister), Schwarzarbeit, Rente, Stromsteuer u.v.m.

Aufgezeichnet 13.-14.8.25 Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu - ich versuche, vor der Welle zu bleiben. Mit Andre Meister von Netzpolitik.org spreche ich ĂŒber das neue Sicherheitspaket und das Bundespolizeigesetz. Außerdem schaue ich mir die EntwĂŒrfe zur SchwarzarbeitsbekĂ€mpfung und zum Rentenpaket an. Und die fĂŒr die Energiekosten habe ich auch schon gefunden!

Parlamentsrevue
Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu: Das neue #Sicherheitspaket mit #Gesichtserkennung und #Palantir und das Bundespolizeigesetz mit #Staatstrojaner https://parlamentsrevue.de/2025/08/15/ppr2508/
ParlamentsPREVIEW: Sicherheitspaket 2 (mit Andre Meister), Schwarzarbeit, Rente, Stromsteuer u.v.m.

Aufgezeichnet 13.-14.8.25 Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu - ich versuche, vor der Welle zu bleiben. Mit Andre Meister von Netzpolitik.org spreche ich ĂŒber das neue Sicherheitspaket und das Bundespolizeigesetz. Außerdem schaue ich mir die EntwĂŒrfe zur SchwarzarbeitsbekĂ€mpfung und zum Rentenpaket an. Und die fĂŒr die Energiekosten habe ich auch schon gefunden!

Parlamentsrevue
Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu: Das neue #Sicherheitspaket mit #Gesichtserkennung und #Palantir und das Bundespolizeigesetz mit #Staatstrojaner parlamentsrevue.de/2025/08/15/p...

ParlamentsPREVIEW: Sicherheits...
ParlamentsPREVIEW: Sicherheitspaket 2 (mit Andre Meister), Schwarzarbeit, Rente, Stromsteuer u.v.m.

Aufgezeichnet 13.-14.8.25 Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu - ich versuche, vor der Welle zu bleiben. Mit Andre Meister von Netzpolitik.org spreche ich ĂŒber das neue Sicherheitspaket und das Bundespolizeigesetz. Außerdem schaue ich mir die EntwĂŒrfe zur SchwarzarbeitsbekĂ€mpfung und zum Rentenpaket an. Und die fĂŒr die Energiekosten habe ich auch schon gefunden!

Parlamentsrevue
Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu - ich versuche, vor der Welle zu bleiben. Mit @andre_meister von Netzpolitik.org spreche ich ĂŒber das neue #Sicherheitspaket und das #Bundespolizeigesetz. Außerdem schaue ich mir die EntwĂŒrfe zur #SchwarzarbeitsbekĂ€mpfung und zum #Rentenpaket an. Und die fĂŒr die Energiekosten habe ich auch schon gefunden!
https://parlamentsrevue.de/2025/08/15/ppr2508/
ParlamentsPREVIEW: Sicherheitspaket 2 (mit Andre Meister), Schwarzarbeit, Rente, Stromsteuer u.v.m.

Aufgezeichnet 13.-14.8.25 Sommerpause? Welche Sommerpause? Ein großer Schwung von GesetzentwĂŒrfen kommt auf uns zu - ich versuche, vor der Welle zu bleiben. Mit Andre Meister von Netzpolitik.org spreche ich ĂŒber das neue Sicherheitspaket und das Bundespolizeigesetz. Außerdem schaue ich mir die EntwĂŒrfe zur SchwarzarbeitsbekĂ€mpfung und zum Rentenpaket an. Und die fĂŒr die Energiekosten habe ich auch schon gefunden!

Parlamentsrevue
Biometrische #Gesichtserkennung – Wir fordern das BMI auf, das neue sog. #Sicherheitspaket zurĂŒckzuziehen www.augsburger-allgemeine.de/politik/biom...

Welche Daten sollen Ermittler ...
Biometrische Daten und Palantir: Bundesregierung will mehr Befugnisse fĂŒr die Polizei

Union und SPD wollen die Befugnisse der Polizei im Netz ausweiten. Damit könnten massenhaft private Fotos ausgewertet werden, warnen DatenschĂŒtzer. Ermittler widersprechen. 

Augsburger Allgemeine
Biometrische Daten und Palantir: Bundesregierung will mehr Befugnisse fĂŒr die Polizei

Union und SPD wollen die Befugnisse der Polizei im Netz ausweiten. Damit könnten massenhaft private Fotos ausgewertet werden, warnen DatenschĂŒtzer. Ermittler widersprechen. 

Augsburger Allgemeine

Dringende Warnung vor Gesichtserkennung

Das Deutsche Institut fĂŒr Menschenrechte drĂŒckt bei biometrischer Gesichtserkennung durch die Polizei auf die Bremse. WĂ€hrend das CSU-Innenministerium mehr Überwachung will, pocht eine umfassende Untersuchung auf die Gefahren und gibt sechs klare Empfehlungen.

Mit einem neuen Überwachungspaket will das CSU-gefĂŒhrte Innenministerium unter anderem mehr Befugnisse fĂŒr biometrische Gesichtserkennung schaffen. Das heißt, Polizist*innen sollen viele Menschen auf einmal anhand ihres Gesichts identifizieren und verfolgen dĂŒrfen. Verkauft werden die PlĂ€ne als Sicherheitspaket. Zwanzig zivilgesellschaftliche Organisationen sehen Grundrechte in Gefahr und lehnen die PlĂ€ne ab.

WĂ€hrend nun die zustĂ€ndigen Ministerien ĂŒber den Entwurf beraten, hat das Deutsche Institut fĂŒr Menschenrechte eine aufrĂŒttelnde Untersuchung mit Warnungen und Empfehlungen vorgelegt. Das Institut wird vom Bundestag finanziert und beobachtet als unabhĂ€ngige Institution die Lage der Menschenrechte in Deutschland.

Auf insgesamt 43 Seiten fassen die Menschenrechtler*innen die Gefahren durch biometrische Gesichtserkennung zusammen. So nennt man es, wenn man Menschen anhand ihrer einzigartigen Gesichtsmerkmale identifiziert. Das sind beispielsweise die Position und AbstÀnde von Augen, Nase, Kinn und Ohren.

Die Expert*innen schildern in ihrer Studie auch die rechtlichen Grundlagen und beschreiben, wo Behörden die Technologie in Deutschland bereits einsetzen. Am Ende machen sie sechs Empfehlungen, fĂŒr die CSU-Innenminister Alexander Dobrindt direkt das Hausaufgabenheft aufschlagen könnte. Wer sich nicht durch das ganze Papier wĂŒhlen möchte, findet hier die wichtigsten Fragen und Antworten.

Warum ist biometrische Gesichtserkennung besonders?

Viele dĂŒrften es seltsam finden, wenn sie immer ein Namensschild oder gar ihren Ausweis um den Hals tragen mĂŒssten. Doch mit biometrischer Gesichtserkennung wird das eigene Gesicht zu einer Art Ausweis. Man kann es nicht ablegen und nur schwer vor Kameras verbergen. Ob auf der Straße oder im Netz – wer sich nicht stark einschrĂ€nken will, gibt sein Gesicht immer wieder potenzieller biometrischer Erfassung preis. Die Expert*innen vom Deutschen Institut fĂŒr Menschenrechte schreiben:

Die FĂ€higkeit, Menschen aus der Ferne, ohne ihr Wissen und ihre Mitwirkung, zu identifizieren, macht Gesichtserkennung zu einem Sonderfall der biometrischen Identifizierung, die einschĂŒchternde Wirkung entfalten kann.

Was macht Gesichtserkennung so gefÀhrlich?

Aus der Studie des Instituts gehen gleich mehrere Gefahren hervor, die biometrische Gesichtserkennung besonders bedenklich machen. Zum Beispiel:

  • Falsche VerdĂ€chtigungen: Gesichtserkennung basiert auf Software, die Ähnlichkeiten erkennt. Dabei passieren Fehler. Das heißt, bei der Suche nach einem VerdĂ€chtigen kann die Polizei schlicht die falsche Person ins Visier nehmen und verfolgen. In den USA ist genau so etwas schon öfter passiert: Nach Verwechslungen mussten Unbeteiligte aufs Revier.
  • Diskriminierung: Gesichtserkennung funktioniert nicht bei jeder Person gleich gut. Gerade bei Frauen oder People of Color kann die Technologie mehr Fehler machen als bei weißen MĂ€nnern. Den Forschenden zufolge stelle sich die Frage, ob der Einsatz der Technologie „gegen das grund- und menschenrechtliche Diskriminierungsverbot verstĂ¶ĂŸt“.
  • Profilbildung: Biometrische Gesichtserkennung muss nicht nur punktuell geschehen. Man kann auch Personen immer wieder an mehreren Orten erkennen und dadurch RĂŒckschlĂŒsse ziehen. Es kann viel ĂŒber einen Menschen verraten, mit wem er zum Beispiel hĂ€ufig auf Demos gesichtet wird, ob er oft im Bankenviertel auftaucht oder auf dem Weg zu einer psychiatrischen Klinik. Die Forschenden verzichten zwar auf konkrete Beispiele, warnen aber vor solcher Profilbildung.
  • EinschĂŒchterung: Allein das Wissen, dass Behörden per Kameras Gesichtserkennung betreiben und dass dabei Fehler passieren, kann Menschen verunsichern. Die Forschenden warnen deshalb vor Abschreckungseffekten („chilling effects“). Sie könnten dazu fĂŒhren, dass Menschen „auf die Wahrnehmung etwa ihrer Meinungs- und Versammlungsfreiheit verzichten“. Konkretes Beispiel: Sie trauen sich nicht mehr auf eine Demo.
  • Hat die KI-Verordnung nicht schon alles geregelt?

    Leider nein. Die EU hat ihre Chance verpasst, biometrische Gesichtserkennung umfassend zu verbieten. Die KI-Verordnung (AI Act) formuliert nur rote Linien, die Mitgliedstaaten bei biometrischer Gesichtserkennung nicht ĂŒberschreiten dĂŒrfen. Deutschland und andere EU-Staaten können aber weiterhin ihre eigenen Regeln schreiben – oder gar entscheiden, die Technologie fĂŒr illegal zu erklĂ€ren.
    Noch Anfang 2024 Ă€ußerten Bundestagsabgeordnete der Ampel den Wunsch, dass Deutschland seinen Spielraum aus der KI-Verordnung nicht ausreizt und etwa biometrische Echtzeit-Überwachung verbietet. Doch das ist Schnee von gestern. Bei der schwarz-roten Bundesregierung stehen die Zeichen nicht auf weniger Überwachung, sondern auf mehr.

    Wie viel Spielraum hat Deutschland bei Gesichtserkennung?

    Der Spielraum fĂŒr biometrische Gesichtserkennung in Deutschland ist aus vielen Richtungen begrenzt. Das Institut fĂŒr Menschenrechte beschreibt eine Art Slalom entlang mehrerer Vorschriften und Grundrechte.

    • Schon aus dem Recht auf PrivatsphĂ€re ergeben sich der Studie zufolge hohe HĂŒrden fĂŒr Gesichtserkennung. „Bereits die Speicherung von Lichtbildern, verbunden mit der bloßen Möglichkeit einer Gesichtserkennung, greift in das Menschenrecht auf PrivatsphĂ€re ein“, warnen die Forschenden.
    • Konkretere EinschrĂ€nkungen liefert die KI-Verordnung selbst. FĂŒr Gesichtserkennung in Echtzeit sind die HĂŒrden höher. Hier mĂŒssen Behörden etwa Folgen fĂŒr Grundrechte abschĂ€tzen und brauchen vor jeder Verwendung eine Genehmigung, etwa durch ein Gericht. Bei nachtrĂ€glicher Gesichtserkennung wird die KI-Verordnung jedoch laxer – und es ist nicht einmal klar definiert, ab wann der Einsatz als nachtrĂ€glich gilt.
    • Ein System zur Gesichtserkennung braucht eine Datenbank, um Gesichter abzugleichen und Personen zuzuordnen. Kommerzielle Anbieter wie PimEyes oder Clearview AI, die Milliarden Gesichter kennen, kommen der Studie zufolge fĂŒr Behörden jedoch nicht in Frage. Die KI-Verordnung verbietet nĂ€mlich Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Eine Alternative sind staatliche Lichtbilddatenbanken. Dort liegen die Bilder von erkennungsdienstlich registrierten Personen – darunter TatverdĂ€chtige und Asylsuchende.
    • Dann gibt es noch die EU-Richtlinie zum Datenschutz bei Polizei und Strafjustiz, kurz: JI-Richtlinie. Ähnlich wie die Datenschutzgrundverordnung (DSGVO) beschreibt die Richtlinie biometrische Daten als besonders schĂŒtzenswert. „Deren polizeiliche Verarbeitung ist demnach nur dann erlaubt, wenn sie unbedingt erforderlich ist“, fasst die Studie zusammen.
    • Sollte das Thema einmal beim Bundesverfassungsgericht landen, dĂŒrfte es den Richter*innen wohl ums Recht auf informationelle Selbstbestimmung gehen. Die Forschenden erinnern an Ă€ltere Rechtsprechung zur Kfz-Kennzeichenkontrolle. Ob nun Autokennzeichen erfasst werden oder Gesichter – die Situation ist vergleichbar. Schon damals habe das Gericht festgestellt, dass „jeder einzelne Datenverarbeitungsvorgang grundsĂ€tzlich einen Grundrechtseingriff“ darstelle.

    LĂ€ngst zeigen FĂ€lle und Pilotprojekte aus den BundeslĂ€ndern, wie Behörden einfach mal loslegen. Bereits 2020 hatte das BKA nach Protesten zum G20-Gipfel in Hamburg Gesichtserkennung eingesetzt. Das Land Hessen will Gesichtserkennung am Hauptbahnhof Frankfurt/Main haben. Das Land Sachsen hat Gesichtserkennung in der Region Görlitz genutzt – zum Ärger der Landesdatenschutzbeauftragten, die das fĂŒr teils verfassungswidrig hielt. Einige der Beispiele tauchen auch in der Studie auf. Die Forschenden warnen vor der „rapiden Entwicklung“.

    Was empfehlen die Menschenrechtsexpert*innen?

    Trotz ihrer Warnungen lehnen die Forschenden biometrische Gesichtserkennung nicht generell ab. Das unterscheidet sich von der Position einiger zivilgesellschaftlicher Institutionen, die sich schlicht fĂŒr den Stopp der Technologie stark machen. Ein klares Nein könnte jahrelange Unsicherheit und Rechtsstreitigkeiten vermeiden.

    Die Menschenrechtler*innen formulieren stattdessen sechs teils dringliche Empfehlungen. An ihnen kann sich Schwarz-Rot messen lassen.

  • Zuerst signalisieren die Forschenden Halt, Stopp!, wenn auch in anderen Worten. Sie warnen vor „erheblichen rechtlichen und ethischen Fragen“ und halten es fĂŒr „unerlĂ€sslich, diese Technologie nicht vorschnell einzufĂŒhren“. Stattdessen empfehlen sie, zuerst Fachleute an die Sache heranzulassen. Es braucht demnach eine „Enquete-Kommission mit Vertreter*innen aus Polizei, Daten- und Diskriminierungsschutz, Zivilgesellschaft und Wissenschaft“, um das Thema öffentlich zu diskutieren.
  • Zweitens soll es erst einmal nicht mehr, sondern weniger Gesichtserkennung geben. Der Zugriff der Polizei auf bereits bestehende staatliche Gesichtsdatenbanken soll beschrĂ€nkt werden, und zwar „dringend“, wie die Forschenden schreiben. Es brauche „klar normierte, anlassbezogene Suchen“, um „unverhĂ€ltnismĂ€ĂŸige Eingriffe in die PrivatsphĂ€re zu vermeiden“.
  • Drittens empfehlen die Forschenden ein Verbot von „digitaler polizeilicher Beobachtung“. Hier geht es darum, dass Gesichtserkennung nicht punktuell ist, sondern eben auch Material fĂŒr umfangreiche Persönlichkeitsprofile liefern könnte.
  • Viertens soll den Forschenden zufolge biometrische Gesichtserkennung unter Richtervorbehaltgestellt werden. Das sieht die KI-Verordnung nur bei Gesichtserkennung in Echtzeit vor, nicht aber bei nachtrĂ€glicher Erkennung. Deutschland darf das jedoch strenger regeln.
  • FĂŒnftens verlangen die Forschenden Transparenz bei polizeilicher Gesichtserkennung, „damit eine demokratische Kontrolle gewĂ€hrleistet ist“. Das Institut fĂŒr Menschenrechte empfiehlt Bund und LĂ€ndern, dass sie auch öffentlich einsehbar machen, welche Systeme sie fĂŒr den Einsatz registrieren. Laut KI-Verordnung mĂŒssten sie das nicht öffentlich tun.
  • Zuletzt sollte Gesichtserkennung den Menschenrechtler*innen zufolge nicht bis auf Weiteres eingefĂŒhrt werden, sondern allenfalls fĂŒr begrenzte Zeit. Danach könne man prĂŒfen, neu bewerten und „idealerweise“ die Folgen fĂŒr Grundrechte abschĂ€tzen.
  • Wie geht es jetzt weiter?

    Das CSU-Innenministerium hat mit seinen ReferentenentwĂŒrfen den ersten Schritt gemacht. Falls sich die schwarz-rote Regierung auf einen gemeinsamen Entwurf einigt, wĂ€ren als nĂ€chstes Bundestag und Bundesrat an der Reihe.

    Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter ĂŒber Online-Recherche und gibt Workshops an UniversitĂ€ten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekĂŒrt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian fĂŒr O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemĂ€ss Lizenz Creative Commons BY-NC-SA 4.0.

    Dringende Warnung vor Gesichtserkennung – Beueler-Extradienst