Inakzeptable Emotionserkennungssysteme werden leider bereits eingesetzt, auch in der EU:
- gegen Geflüchtete an europäischen Außengrenzen: https://www.accessnow.org/eu-ai-act-migration/
- In China, zur Überprüfung der Loyalität von Parteimitgliedern: https://www.biometricupdate.com/202207/china-develops-face-biometrics-ai-tool-to-test-party-member-loyalty
- … oder gegen die Gruppe der Uiguren: https://www.bbc.com/news/technology-57101248
- … oder zur Emotionserkennung bei Schulkindern in Hongkong: https://edition.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html
- Oder als „intelligente Videoüberwachung“ von Siemens in Zügen um Sitzplätze zu überwachen und „aggressives Verhalten“ in Zugwagons automatisiert zu erkennen und zu melden. Das wurde laut Siemens bereits in Deutschland und Österreich eingesetzt, z.B. durch „‘Versteckte’ Kameras in den Anzeigen des Fahrgastinformationssystems“: https://www.mobility.siemens.com/global/de/portfolio/schiene/fahrzeuge/digitaler-zugbetrieb/intelligente-videoueberwachung.html
Wir empfehlen nachdrücklich, ein Verbot von Emotionserkennungssystemen, einschließlich „KI-Lügendetektoren“, in Artikel 5 des KI-Gesetzes aufzunehmen. Insbesondere auch bei folgenden Anwendungsfällen:
- Bei der Erbringung von staatlichen Leistungen, wie z.B. Anträgen auf Wohngeld;
- Arbeitgeber.innen, die damit am Arbeitsplatz Arbeitnehmer.innen überwachen um sie damit zu beurteilen, einzustufen oder zu kontrollieren;
- in Bildungseinrichtungen um damit Schüler.innen und Lehrer.innen zu überwachen und sie damit automatisiert zu beurteilen und zu kontrollieren.
In Fällen, bei denen Emotionserkennung zur medizinischen Anwendung ausnahmsweise erlaubt werden kann, muss dies unter Kriterien erfolgen, die eine sinnvolle und verhältnismäßige Anwendung gewährleisten. Dazu gehört:
- alle betroffenen Gruppen und relevanten Expert.innen bei der Entwicklung einbinden, einschließlich Patient.innenverbänden und Datenschutzexpert.innen;
- Systeme müssen wissenschaftliche und klinische Validität nachweisen;
- klare Hinweise auf die Grenzen solcher Technologien und ihre potenziellen Risiken, die aus der Fehleranfälligkeit der Systeme resultieren;
- in einer Weise entwickelt und eingesetzt werden, die die Rechte aller Personen, die davon betroffen sein könnten, respektiert.
Wenn ein System nicht so entwickelt werden kann, dass es alle Kriterien erfüllt, dann sind die Risiken inakzeptabel, und es muss durch das KI-Gesetz verboten werden.
Die Hohe Kommissarin der Vereinten Nationen für Menschenrechte, Michelle Bachelet, hat in ihrem Jahresbericht 2021 davor gewarnt, dass Emotionserkennung, z. B. um Personen für Polizeikontrollen oder Verhaftungen auszusondern oder den Wahrheitsgehalt von Aussagen bei Verhören zu bewerten, unsere Menschenrechte verletzen kann.
Auch der europäische Datenschutzbeauftragte und der Ausschuss der Datenschutzbeauftragten der Mitgliedsstaaten der EU haben vor der Verwendung von „KI“ zur Ableitung von Rückschlüssen auf Emotionen von Menschen gewarnt und ein Verbot im KI-Gesetz gefordert. Die Abgeordneten im Europäischen Parlament sollten diese Warnungen aus Zivilgesellschaft und Fachbehörden ernst nehmen und die Menschen in der EU vor der gefährlichen Emotionserkennung schützen.
@digitalcourage ich sehe keinen Grund entsprechende "#Emotionserkennung" nicht zu verbieten.
Vorallem weil es eine non-consensual Technologie ist deren Nutzung mehr Missbrauchspotenzial denn gutes hat.