Liebe #SPD, eurer Versuch #Erbschaftssteuer auf die politische Agenda bringen zu wollen, ohne das Thema #FamilenStiftungen beherzt zu adressieren ist so halbherzig kurzgedacht, dass ich kotzen möchte.

Einer #Partei, welche #Steuerverbrecher aktiv schützt, wie im Falle #CumEx und #CumCum, sollte sich lieber schämen als zu versuchen, echte #linke Positionen zu emulieren und dabei nebenbei wieder #Ausnahmetatbestästände und #Schlupflöcher für creative #Steuergestaltung mit einzubauen.

Regierung lässt #Superreiche in Ruhe

Selbst der in­ter­na­ti­o­na­le #Währungsfonds emp­fiehlt, un­ge­rech­te #Schlupflöcher für über­rei­che Erben zu schlie­ßen. Die #Bundesregierung juckt das nicht

Von Gareth Joswig @gareth

Die Bundesregierung ignoriert die Empfehlungen des Internationalen Währungsfonds (IWF).
https://www.taz.de/!6138912

Linke will Erbschaftsteuer diskutieren: Regierung will Schlupflöcher für Superreiche nicht stopfen

Selbst der Internationale Währungsfonds empfiehlt, ungerechte Schlupflöcher für überreiche Erben zu schließen. Die Bundesregierung juckt das nicht.

TAZ Verlags- und Vertriebs GmbH
#UNO arbeitet an einem globalen #Steuersystem, mit dem #Schlupflöcher geschlossen und die Kosten von #Umwelt- u. #Klimaschäden gerechter umgelegt werden sollen
https://shorturl.at/zeO0E F: Pixabay CC

@colanuss @tazgetroete @janboehm @zdfmagazin naja, dass #Neonazis andersdenkende bedrohen ist nix neues.

Dass die #Impressumspflicht problematisch ist steht außer Frage.

social.mooneyed.de · Issue #52 · greyhat-academy/lists.d

Wenn du nicht Teil der Ermittlungen der Kriminalpolizei, Abteilung Staatsschutz, die gerade gegen Schratze laufen, werden willst, empfehle ich dir dringend, dem Eintrag über social.mooneyed.de zu l...

GitHub

@Dodo_sipping nickt zustimmend

55€ pro Quadratmeter kalt. Keine Top-Lage. „Möbliert“ für die Bilder mit immer dem gleichen oder selben Tisch. Ist das dieses „der Markt regelt“? Oder sollten #Schlupflöcher für #Abzocke beim #Wohnen geschlossen werden?

https://www.mopo.de/hamburg/55-euro-pro-quadratmeter-dieses-loch-ist-hamburgs-frechste-wohn-abzocke/

55 Euro pro Quadratmeter: Dieses Loch ist Hamburgs vielleicht frechste Wohn-Abzocke (M+)

„Top möbliert“, „Top Wohnung“, „zentrale Lage“– mit diesen warmen Worten wird eine 20 Quadratmeter große Wohnung in Wandsbek angepriesen. Das Problem: Für

MOPO

Ein #Verbot des klimaschädlichsten Schiffsbrennstoffs #Schweröl (HFO) in der #Arktis ist in Kraft getreten. Der dickflüssige und billige #Brennstoff beschleunigt durch die #Emission von #Rußpartikeln das #Schmelzen von Schnee und Eis. #Umweltaktivisten begrüßen das Verbot, kritisieren aber zahlreiche #Schlupflöcher, die es den meisten Schiffen erlauben, HFO bis 2029 weiter zu nutzen. Russland setzt die neuen Vorschriften nicht um.

#Klimaschutz #Schifffahrt #Umweltschutz

https://www.bbc.com/news/articles/cpv3dk4ydr3o

Climate change: Arctic 'dirty oil' ban comes into force for ships

There are many loopholes to the ban, but environmentalists see it as a crucial first step.

Sagt sehr viel darüber aus, warum #Deutschland ein #Paradies für #Geldwäsche und #Steuertrickser ist. Während "normale" #Steuersünder schnell an den Hammelbeinen über dem offenen Feuer geröstet werden, finden ressourcenstarke #Akteure immer wieder #Schlupflöcher, um den #Staat um #Milliarden zu betrügen und damit billig oder sogar straffrei wegzukommen. #Ermittler aber kapitulieren darüber.

Steuerskandal Cum-Ex: Chefermittlerin kündigt und übt Kritik | tagesschau.de
https://www.tagesschau.de/investigativ/ndr-wdr/cum-ex-aufarbeitung-100.html

Steuerskandal Cum-Ex: Chefermittlerin kündigt und übt Kritik

Ihre Ermittlungen führten zu ersten Urteilen im Steuerskandal Cum-Ex und brachten Kanzler Scholz in Erklärungsnot: Anne Brorhilker verlässt nach <em>WDR</em>-Informationen die Justiz, um an anderer Stelle gegen Finanzkriminalität zu kämpfen.

tagesschau.de

Dieser Artikel stammt von Netzpolitik.org.

Politische Werbung im Netz wird transparenter, das ist gut. Besser wäre es, die EU hätte mit ihrer Verordnung auch bei zielgerichteten Anzeigen deutlichere Grenzen gezogen. So bleibt es weiter an der kritischen Öffentlichkeit, Manipulation und Desinformation aufzudecken. Eine Analyse.

Wie sich „KI“ eine digitale Wahlkampagne vorstellt – Public Domain Midjourney: A digital election campaign

Als ich gestern Abend durch meinen Instagram-Feed scrollte, musste ich stutzen. Ich sah eine Anzeige, die ziemlich gut auf mich zugeschnitten war. Ich wurde angesprochen als: Berliner, Gamer, Fantasy-Fan. Wenn ich mich selbst in drei Worte beschreiben müsste, würde ich andere wählen, aber die drei Eigenschaften sind definitiv richtig. Das allein ist nicht verwunderlich, Targeting auf Social-Media-Plattformen ist oft treffsicher. Was diese Anzeige vom Rest abhob: Sie hat mir gesagt, warum ich sie zu sehen bekomme und die drei Kritieren offengelegt.

Die Berliner Landeszentrale für politische Bildung will mit der Anzeige für das Manipulationspotenzial von Targeted Advertising sensibilisieren. Erstaunlich treffsicher war auch das Timing. Denn in dieser Woche haben sich das EU-Parlament und der Rat der Mitgliedstaaten auf eine neue Verordnung über die Transparenz und das Targeting politischer Werbung geeinigt. Der finale Text ist noch nicht öffentlich, doch erstmals gelten EU-weit dezidierte Regeln für Online-Wahlwerbung. Ein Meilenstein.

Nicht erst seit dem Skandal um Cambridge Analytica warnten Journalist:innen, Forscher:innen und Aufsichtsbehörden vor den Gefahren, die das Netz für demokratische Wahlen bedeuten kann. Datengetriebene Manipulation, zielgerichtete Desinformation und dreckige Kampagnen mit geheimen Geldgebern sind reale Probleme. Es ist gut, dass die EU ihnen begegnen will. Nur hätte man sich gewünscht, dass das Vorgehen schneller und entschiedener ausgefallen wäre.

Immerhin: Transparenz

Denn eins ist klar: Diese Verordnung kommt zu spät. Eigentlich wollte die Europäische Union mit ihren Regeln für politische Online-Werbung bereits die EU-Wahlen im nächsten Sommer schützen. Daran ist sie gescheitert. Ein Großteil der Regeln tritt erst 18 Monate nach Verabschiedung in Kraft, wenn es gut läuft also gerade noch rechtzeitig vor der Bundestagswahl 2025. Bei anderen Regeln beträgt die Übergangszeit sogar zwei Jahre.

Gut ist, dass die Verordnung mehr Transparenz herstellt. Nicht nur muss Wahlwerbung in Zukunft als solche gekennzeichnet werden. Plattformen müssen auch Auskunft über die ausgewählten Targeting-Kriterien und die erreichten Zielgruppen geben. Parteien und Politiker:innen müssen zudem bekanntgeben, wer die Anzeigen geschaltet und wer dafür bezahlt hat. Überhaupt Anzeigen zu schalten wird künftig nur noch aus der EU heraus erlaubt sein.

Es ist ein echter Erfolg des Parlaments, dass die EU zudem ein verpflichtendes Transparenzregister einführen wird. Zwar betreiben einige Werbekonzerne wie Google und Meta schon länger selbst solche Datenbanken mit geschalteter Wahlwerbung, doch sind sie teils unvollständig und schwer zugänglich. Eine zentrale Übersicht über alle geschalteten Wahlkampfanzeigen wird es der kritischen Öffentlichkeit erleichtern, widersprüchliche oder regelwidrige Wahlwerbung aufzuspüren.

Targeting bleibt mit Zustimmung weiter erlaubt

Deutlich schwächer fällt die Verordnung beim Targeting selbst aus. Statt dieses drastisch einzuschränken, um zielgerichtete Manipulation und Desinformation zu verhindern, bleibt mit der Einwilligung der Betroffenen weiter vieles erlaubt. Dabei ist inzwischen hundertfach dokumentiert, dass Datenhändler und Plattformen genauso wie Mobilfunkbetreiber und Banken sich die begehrten Einwilligungen mit miesen Tricks erschleichen. Die EU bleibt trotzdem dabei: Wer zustimmt, darf auch gezielte Werbung gezeigt bekommen – wie es die Europäischen Datenschutzregeln vorsehen.

Da hilft es wenig, dass sensible Daten wie etwa über politische Ansichten, Gesundheit oder die sexuelle Orientierung für politische Zwecke tabu sind. Ein solches Verbot lässt sich oft leicht umgehen. So können Plattformen aus dem Verhalten von Personen Schlüsse über ihre persönlichen Eigenschaften und Schwächen ziehen, ohne explizit verbotene Kategorien zu nutzen. Außerdem können sie andere Kategorien als Ersatz nutzen. Wie das geht, haben wir vor wenigen Monaten in einer großen Recherche zu einem Datenmarktplatz gezeigt. So kann man etwa die Kategorie Herkunft recht zuverlässig umgehen, indem man für das Targeting die im Browser eingestellte Sprache nutzt.

Immerhin: Das Europäische Parlament hat offenbar diverse Schutzmaßnahmen in die Verordnung verhandelt, die für mehr Augenhöhe beim Kampf um die Einwilligung sorgen sollen. Die Zustimmung muss explizit erfolgen, darf also nicht hinter anderen Verarbeitungszwecken versteckt werden. Es dürfen keine Daten von Drittfirmen für politische Werbung genutzt werden. Und die Do-Not-Track-Funktion im Browser erlebt ein kurioses Comeback: Wer sie aktiviert, darf künftig nicht nochmal mit Einwilligungs-Bannern genervt werden.

Man darf gespannt sein, wie die Datenschutzbehörden die Einhaltung all dieser kleinteiligen Regeln konsequent durchsetzen werden – und welche Schlupflöcher die Datenindustrie sucht, um sie zu umgehen. Der sicherere Weg wäre gewesen, politisches Targeting klar zu verbieten oder zumindest die dafür nutzbaren Daten drastisch zu beschränken, etwa auf Alter, Geschlecht und Ort.

Wir brauchen kritische Öffentlichkeit

Das EU-Parlament wollte diesen strengeren Weg gehen, konnte sich in diesem Punkt jedoch nicht gegen die Mitgliedstaaten und die Kommission durchsetzen. Die Mitgliedsländer wollen die Datenindustrie offenkundig nicht zu stark an die Leine nehmen und sich selbst in den Möglichkeiten ihrer politischen Kommunikation nicht zu sehr einschränken lassen.

Es weiterer Grund ist aber wohl der bisweilen verengte Diskurs über die Resilienz demokratischer Wahlen. Man kann in der Debatte oft den Eindruck bekommen, als bestehe das Risiko lediglich in Manipulation durch russische Akteure oder andere ausländische Mächte. Doch die Gefahr für unsere Demokratie, sie lauert nicht nur im Äußeren. Trump, Brexit, AfD sind nicht das Werk Russlands. Auch in Europa fliegen immer wieder demokratisch gewählte Parteien und Politiker:innen mit Desinformation und fragwürdigem Targeting auf.

Kritiker:innen warnen zudem davor, dass auch die neuen Möglichkeiten sogenannter generativer Künstlicher Intelligenz zur Beeinflussung von Wahlkämpfen eingesetzt werden könnten, beispielsweise Manipulation mit synthetischen Bildern oder Desinformation durch automatisierte Anrufe. Das kann bereits für Verwirrung und Polarisierung sorgen, ohne dass die Nachrichten zielgerichtet eingesetzt werden. Datenbasiertes Targeting könnte die darin liegenden Gefahren weiter verstärken.

Es wird deshalb auch in Zukunft an kritischen Journalist:innen, wachsamen Nichtregierungsorganisationen, klugen Forscher:innen und engagierten Bürger:innen liegen, Missbrauch und Manipulation im Wahlkampf aufzudecken. Die neuen Transparenzregeln der EU können hierfür wichtige Werkzeuge sein. Schade, dass wir sie nicht schon im Wahljahr 2024 nutzen können.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Ingo Dachwitz

https://www.bachhausen.de/eu-regeln-fuer-politische-online-werbung-diese-schlupfloecher-lauern/

#diese #lauern #online #politische #regeln #schlupflocher #werbung

EU-Regeln für politische Online-Werbung: Diese Schlupflöcher lauern

Politische Werbung im Netz wird transparenter, das ist gut. Besser wäre es, die EU hätte mit ihrer Verordnung auch bei zielgerichteten Anzeigen deutlichere Grenzen gezogen. So bleibt es weiter an der kritischen Öffentlichkeit, Manipulation und Desinformation aufzudecken. Eine Analyse.

netzpolitik.org

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist…
EU-Kommission, Rat und Parlament verhandeln derzeit im Trilog die finale Fassung der KI-Verordnung. In der morgigen Verhandlungsrunde geht es vor allem um den Hochrisikobereich. Und gerade hier weist die Verordnung noch Lücken auf, die eine neue Qualität der Massenüberwachung ermöglichen würden.
Automatisierte Entscheidungen sollten möglichst transparent erfolgen – Public Domain Midjourney (A machine for automated decision-making, steampunk)Lena Rohrbach ist Referentin für Menschenrechte im digitalen Zeitalter und Rüstungsexportkontrolle bei Amnesty International.
„Es war so seltsam. Ich bekam einen Brief, in dem stand, dass ich zu Unrecht Kindergeld erhalten hatte. Ich war Anfang 20. Ich wusste nicht viel über die Steuerbehörden. Ich habe zusätzlich zu meinem Job angefangen, als Putzfrau zu arbeiten, um das Geld zurückzuzahlen. Ich sah einfach, wie mir alles entglitt.“
Das sagt Batya Brown, eine junge Mutter aus den Niederlanden, gegenüber Amnesty International. Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen. Die niederländische Regierung musste Anfang 2021 in Folge des Skandals zurücktreten.
Das niederländische Beispiel sollte ein Weckruf für die EU-Regierungen sein. Damit Menschen nicht zu Schaden kommen, muss der Einsatz von KI-Systemen reguliert werden. Das hat sich die EU mit der KI-Verordnung vorgenommen, dem weltweit ersten umfassenden Regelwerk für Künstliche Intelligenz.
Am morgigen Dienstag will der spanische Ratsvorsitz weitere große Fragen der Verordnung klären. Im Fokus steht dabei unter anderem die Regulierung von sogenannter Hochrisiko-KI. EU-Parlament, Kommission und die Regierungen der Mitgliedsstaaten – der sogenannte Rat – müssen sich derzeit im sogenannten Trilog auf einen gemeinsamen Verordnungsentwurf einigen. Ob Fälle wie der von Batya Brown künftig verhindert werden, ist noch unklar. Denn die Verordnung weist bislang noch große Schlupflöcher auf.
Wofür muss sich die Bundesregierung in den Verhandlungen einsetzen, um Menschenrechte zu schützen?
1. Koalitionsvertrag einhalten – Gesichtserkennung und andere inakzeptable Technologien verbieten
Amnesty International und mehr als 150 weitere NGOs sind sich einig: Der Einsatz von Gesichtserkennungstechnologie an öffentlich zugänglichen Plätzen ist mit den Menschenrechten unvereinbar. Die Bundesregierung hat im Koalitionsvertrag zugesagt, dies zu verbieten. Erfreulicherweise setzt sie sich – ebenso wie das EU-Parlament – auch weiterhin für ein Verbot ein. Allerdings fordert sie Ausnahmen für Sicherheitsbehörden, die eine zeitverzögerte Analyse zulassen. Nun aber droht ein Rückschritt: Mehrere EU-Mitgliedsstaaten wollen derart viele Ausnahmen einführen, dass die Verordnung damit letztlich einer beschränkten Nutzungserlaubnis gleichkäme.
Ein Kompromissvorschlag für die Verhandlungen sieht vor, Gesichtserkennung auch in Echtzeit zu erlauben, etwa für die Prävention und Verhinderung bestimmter Verbrechen. Dafür würde bereits der Verdacht von Drogenhandel ausreichen. Mit einer solchen Begründung ließe sich vermutlich die halbe Berliner Innenstadt überwachen. Gesichtserkennung an öffentlichen Plätzen aber ist und bleibt ein Massenüberwachungsinstrument, das konsequent verboten werden muss.
Auch bei Predictive Policing, Emotionserkennungs-KI und Systemen zur biometrischen Kategorisierung drängen die Regierungen auf weitere Ausnahmen für Sicherheits- und Migrationsbehörden. Auch das wäre eine fatale Entscheidung. Amnesty International hat in Großbritannien und den Niederlanden nachgewiesen, wie Predictive Policing zu Massenüberwachung, Fehlentscheidungen und Diskriminierung führt.
2. KI-Einsatz durch Behörden darf kein Geheimnis sein
Batya Brown wusste nicht, dass die niederländische Steuerbehörde einen Algorithmus eingesetzt hatte. Sie wusste daher auch nicht, mit welcher Begründung sie die Entscheidung am besten anfechten kann. Menschen müssen jedoch darüber in Kenntnis gesetzt werden, wann und wo sie KI-gestützten Entscheidungen ausgesetzt sind und über welche Rechte sie verfügen. Daher ist es zu begrüßen, dass der Entwurf der KI-Verordnung eine EU-Datenbank vorsieht, die sogenannte Hochrisiko-KI transparent aufführt.
Allerdings will der Rat ausgerechnet Sicherheits- und Migrationsbehörden von dieser Transparenzpflicht entbinden. Diese Behörden sollen hochproblematische KI einsetzen und tief in Grundrechte der EU-Bürger*innen eingreifen dürfen. Künftig könnten Polizeibehörden dann Predictive Policing einsetzen, um zum Beispiel „Gefahrenprognosen“ für die menschenrechtlich problematische Präventivhaft zu erstellen – und dieser Einsatz würde dann obendrein dem Behördengeheimnis unterliegen. Pauschale Ausnahmen von der Registrierungspflicht darf es daher nicht geben. Aufsichten wie nationale Datenschutzbehörden sollten immer auf sämtliche Informationen zugreifen können. Transparenz schafft Überprüfbarkeit und führt damit zu mehr statt zu weniger Sicherheit.
3. Kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”
Der Rat will die Entwicklung und den Einsatz von KI zu Zwecken der „nationalen Sicherheit“ nicht durch die Verordnung zu regulieren. Auch das Bundesinnenministerium setzt sich für eine solche pauschale Ausnahme ein. Das für die Verordnung ebenfalls zuständige Justizministerium unter Minister Marco Buschmann schweigt bislang dazu.
Eine solche Ausnahme würde jedoch geradezu zum Missbrauch einladen. Denn „nationale Sicherheit“ ist unscharf definiert. In Ungarn wurde etwa ein Gesetzespaket, das die Zivilgesellschaft zum Schweigen bringen soll, mit der nationalen Sicherheit begründet. Vor diesem Hintergrund ist es wenig überraschend, dass sich in einer Umfrage des European Center for not-for-Profit-Law eine Mehrheit der Befragten gegen eine solche Ausnahme ausgesprochen hat. Kein anderes EU-Gesetz sieht übrigens eine solche pauschale Ausnahme vor.
Die Bundesregierung muss dem Blankoschein ihre Unterstützung entziehen, andernfalls ist Missbrauch vorprogrammiert. Die deutschen Ministerien begründen ihre Unterstützung damit, dass die KI-Verordnung sonst in Rechtsbereiche der nationalen Sicherheit eingreifen könne, die eigentlich Angelegenheit der Mitgliedsstaaten sind. Diese Sorge lässt sich mit einer einfachen Formulierung ausräumen, die auch in der Datenschutzgrundverordnung genutzt wird. Dort heißt es, die Verordnung finde „keine Anwendung“ bei jeder Tätigkeit, „die nicht in den Anwendungsbereich des Unionsrechts fällt“.
4. Keine Schlupflöcher in der Definition von „Hochrisiko“-KI
Die Verordnung soll KI-Systeme in verschiedene Risikokategorien einstufen. Die EU-Kommission hat eine klare Definition für sogenannte Hochrisiko-KI vorgeschlagen. Sie soll stärker reguliert werden, um Risiken, die von ihr ausgehen, effektiver zu begegnen. Als hochriskant gelten unter anderem Systeme, die darüber entscheiden, welche Bewerber*innen zum Vorstellungsgespräch eingeladen werden, welchen Bildungsweg Schüler*innen einschlagen oder die – wie im Fall von Batya Browns – ob Eltern Kindergeld erhalten. Auf Druck von Wirtschaftslobbyist*innen soll diese Definition aufgeweicht werden. Unseriöse Anbieter könnten sich dann den Anforderungen an Hochrisiko-KI entziehen. Dafür könnte bereits eine begründete Selbsteinschätzung ausreichen, dass sie keine Hochrisiko-KI anbieten.
Aus Sicht der Bundesregierung soll die Möglichkeit einer solchen Selbsteinschätzung vor allem kleine und mittlere Unternehmen entlasten. Profitieren würden aber vor allem Techkonzerne: Sie verfügen über große Rechtsabteilungen, die begründen können, warum die Ausnahmeregeln für sie gelten. Größere Unternehmen können dann auch drohende finanzielle, rechtliche und Reputations-Risiken tragen, wenn Menschen durch ihre KI-Produkte zu Schaden kommen. Gerade kleine Start-ups und Unternehmen verfügen hingegen meist über weniger Ressourcen und können dies nicht tun.
5. Nachdenken schützt vor Fehlern – Grundrechts-Folgeabschätzungen erhalten
Zu Recht verortet der Verordnungsentwurf eine große Verantwortung für KI-Systeme und deren Auswirkungen bei deren Anbietern. Allerdings weisen diese Systeme mitunter Risiken auf, die sich erst aus der konkreten Anwendung ergeben. Es ist daher hilfreich, sich zunächst der mittel- und langfristigen Auswirkungen eines KI-Einsatzes gewahr zu werden. Deshalb sollte die EU die Betreiber*innen von hochriskanten KI-Systemen dazu verpflichten, vor deren Einsatz eine Grundrechts-Folgenabschätzung (Fundamental Rights Impact Assessment) vorzunehmen. Die Bundesregierung lehnt dies bislang leider ab. Es ist zu hoffen, dass sie sich noch eines Klügeren besinnt. Die Niederlande sind bereits aus Schaden klug geworden und haben eine solche Folgeabschätzungen eingeführt – als Reaktion auf den Kindergeldskandal vor einigen Jahren.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Gastbeitrag

https://www.bachhausen.de/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/

#jetzt #schlie #schlupflocher #verordnung #welche #zielgeraden

KI-Verordnung auf der Zielgeraden: Welche Schlupflöcher die EU jetzt noch schließen muss – netzpolitik.org

EU-Kommission, Rat und Parlament verhandeln derzeit im Trilog die finale Fassung der KI-Verordnung. In der morgigen Verhandlungsrunde geht es vor allem um den Hochrisikobereich. Und gerade hier weist die Verordnung noch Lücken auf, die eine neue Qualität der Massenüberwachung ermöglichen würden.

netzpolitik.org