Im Europäischen Parlament werden gerade Änderungsanträge zum KI-Gesetz (#AIAct) verhandelt. Aktuell geht es insbesondere um das Thema #Emotionserkennung. Das ist eine Technologie, deren wissenschaftliche Basis höchst umstritten ist, die aber gefährliche Anwendungsfälle hat. Dazu gehört z.B. die Anwendung von „KI“ für eine neue Generation an „Lügendetektoren“ (sogenannte „KI-Polygraphen“). Der Einsatz von Lügendetektoren ist in Deutschland bislang als rechtsstaatlich nicht vertretbar anerkannt, könnte auf diesem Umweg aber erneut zugelassen werden. Nachfolgend wollen wir das Thema und unsere Position dazu genauer erklären (längerer Thread) …
Unabhängig von der Frage, ob KI-Systeme tatsächlich auf unseren emotionalen Zustand schließen können, ist deren Einsatz ein inakzeptablen Eingriff in unser privates Geistesleben und untergräbt unser Rechte auf Privatsphäre. Wenn Sicherheitskräfte Emotionserkennung nutzen, um potenziell „aggressive“ Personen in Menschenmengen oder bei Protesten zu erkennen und diese Personen proaktiv festzunehmen, bevor sie eine aggressive Handlung begangen haben, spielt es keine Rolle, ob die Schlussfolgerung fehlerhaft war oder nicht; die Folgen sind real und untergraben unsere Rechte auf Meinungs- und Versammlungsfreiheit.

Inakzeptable Emotionserkennungssysteme werden leider bereits eingesetzt, auch in der EU:

- gegen Geflüchtete an europäischen Außengrenzen: https://www.accessnow.org/eu-ai-act-migration/

- In China, zur Überprüfung der Loyalität von Parteimitgliedern: https://www.biometricupdate.com/202207/china-develops-face-biometrics-ai-tool-to-test-party-member-loyalty

- … oder gegen die Gruppe der Uiguren: https://www.bbc.com/news/technology-57101248

- … oder zur Emotionserkennung bei Schulkindern in Hongkong: https://edition.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html

- Oder als „intelligente Videoüberwachung“ von Siemens in Zügen um Sitzplätze zu überwachen und „aggressives Verhalten“ in Zugwagons automatisiert zu erkennen und zu melden. Das wurde laut Siemens bereits in Deutschland und Österreich eingesetzt, z.B. durch „‘Versteckte’ Kameras in den Anzeigen des Fahrgastinformationssystems“: https://www.mobility.siemens.com/global/de/portfolio/schiene/fahrzeuge/digitaler-zugbetrieb/intelligente-videoueberwachung.html

The EU AI Act: How to (truly) protect people on the move - Access Now

The EU AI Act is supposed to protect the rights of everyone impacted by AI systems. But it ignores the systems impacting people on the move. Here are three steps policymakers can take to fix that problem.

Access Now
@digitalcourage Hat nicht Microsoft so ein Patent vor ein paar Monaten gekauft um es in MS-Teams zu integrieren?
@skellig Interessanterweise hat Microsoft selbst in der Vergangenheit (teilweise) einen Rückzieher gemacht und auf die Risken verwiesen und darauf, wie wissenschaftlich fragwürdig Emotionserkennung ist. /K
Siehe: https://netzpolitik.org/2022/ethik-der-biometrie-microsoft-gesteht-missbrauchsgefahr-von-gesichtserkennung-ein/
@digitalcourage #Microsoft #Datenschutz Ich glaube es war Mitte des letzten Jahres, als sie ein Patent zur Erkennung und Analyse von Mimik und Gestik in Videochats eingereicht haben, mit dem Ziel es in Teams zu integrieren. Das ist doch letztendlich nichts anderes als die Analyse von Emotionen. Was macht das mit Menschen wenn sie befürchten müssen eine KI analysiert permanent im Hintergrund das Aussehen, Auftreten und Verhalten. In so eine Welt möchte ich nicht leben.