Welche Fake-Videos nach den Angriffen zwischen Israel und dem Iran kursieren

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Nachdem Israel vergangene Woche Atomanlagen und militärische Einrichtungen des Iran bombardierte und ranghohe Militärs tötete, reagiert der Iran mit Raketen- und Drohnenangriffe auf Israel. Die Eskalation zwischen den Ländern wird online von einer Flut an Videos begleitet. Viele davon sind auf Englisch, werden aber Nutzerinnen und Nutzern Sozialer Netzwerke in Deutschland angezeigt. Besonders auffällig: Darunter sind viele KI-generierte Inhalte. 

Video von Raketenangriff auf Haus in Tel Aviv ist Fake und KI-generiert

So etwa ein Video, das einen Raketenangriff auf ein Haus in Tel Aviv zeigen soll. Nach dem Einschlag bricht scheinbar ein ganzer Teil des Hauses ab. „Ja, es ist echt und stimmt mit Schäden an den Gebäuden überein“, heißt es in einem X-Beitrag zu dem Video mit fast einer Million Aufrufe. 

Dieses Video soll einen Angriff auf ein Haus in Tel Aviv zeigen, doch laut Experten ist es fake (Quelle: X; Screenshot: CORRECTIV.Faktencheck)

Der Beitrag enthält einen Hinweis, eine sogenannte Community Note. Darin schreiben Nutzerinnen und Nutzer, dass das Video ursprünglich vom iranischen Staatsmedium Press TV veröffentlicht worden sei. Dort habe ein Wasserzeichen unten rechts im Video auf Veo, den KI-Video-Generator von Google, hingewiesen. 

Der Beitrag von Press TV ist nicht mehr online – in dem archivierten Beitrag und anderen Versionen des Videos auf X ist das Wasserzeichen jedoch zu sehen. Das allein ist aber noch kein ausreichender Beleg dafür, dass das Video KI-generiert ist. Valentin Schwind, Professor für Mensch-Computer-Interaktion an der Frankfurt University of Applied Sciences, schreibt uns, ein solches Wasserzeichen könne auch im Nachhinein bei echten Videos eingefügt werden. 

Laut Martin Steinebach, Abteilungsleiter für Media Security und IT Forensics am Fraunhofer-Institut für Sichere Informationstechnologie, sieht der Zusammenbruch des Hauses künstlich aus. Außerdem müsse die Aufnahme in geringer Distanz zu dem Gebäude entstanden sein, so der Experte, da Bild und Ton so gut wie synchron seien. Das Video wirkt jedoch optisch so, als sei es aus größerer Entfernung aufgenommen worden. 

Ein weiterer von uns kontaktierter Experte ist Hani Farid. Er ist Professor an der UC Berkeley und Mitbegründer und wissenschaftlicher Leiter von GetReal Security, einer Firma, die Lösungen für die Überprüfung und Authentifizierung von Videos und anderen digitalen Inhalten anbietet. Er schreibt, das Video sei aufgrund der Bewegung und Erscheinung „offensichtlich fake“. Aufgrund eines fehlenden unsichtbaren Wasserzeichens, das Google normalerweise hinzufügt, war sich Farid zunächst nicht sicher, ob das Video von Veo stamme. Emmanuelle Saliba, eine von ihm kontaktierte Kollegin, konnte das Video aber schließlich der Google-KI zuordnen. 

Auch ein und ein israelischer Faktenchecker wiesen auf X darauf hin, dass das Video wahrscheinlich KI-generiert sei. Dafür spreche die Darstellung der Rakete, des Rauchs und der Schäden am Gebäude. Das Material sei einem tatsächlichen Angriff in der Stadt Bat Yam am 15 Juni nachempfunden, bei dem sechs Menschen starben und fast zweihundert verletzt wurden. Auch hier war ein Teil des Gebäudes zusammengebrochen. Aufnahmen des Angriffs in Sozialen Netzwerken sehen jedoch anders als das Video aus

Tiktok-Video von brennendem israelischen Flugzeug ist ein KI-Fake

Sicher KI-generiert ist dagegen laut allen drei von uns befragten Experten ein Tiktok-Video, das ein brennendes israelisches Flugzeug am Flughafen Ben Gurion zeigen soll. Es hat mehr als acht Millionen Aufrufe und 400.000 Likes. 

Fast 400.000 Likes hat dieses Tiktok-Video von einem angeblich zerstörten israelischen Flugzeug, doch die Aufnahme ist nicht echt (Quelle: Tiktok; Screenshot: CORRECTIV.Faktencheck)

Martin Steinebach schreibt uns, ein typisches Merkmal von KI-Videos sei, dass wie bei diesem Video im Hintergrund Personen in Objekten verschwinden würden. Außerdem wirke die Steuerklappe des Flugzeugs im Wind, als ob sie aus Stoff sei. Hani Farid schreibt uns, er habe aus mehreren Frames das unsichtbare Wasserzeichen extrahieren können, das beweise, dass das Video von Veo – also dem KI-Video-Generator von Google – stammt. 

Zwar ist im Zuge des militärischen Konflikts der Luftraum über dem Nahen Osten gesperrt worden und Flugzeuge blieben am Boden, über einen Angriff auf Flugzeuge am Flughafen Ben Gurion gibt es aber aktuell (Stand: 16. Juni) keine seriösen Medienberichte. 

Video von zerstörtem Flughafen ist ebenfalls mit KI erstellt worden

Auch ein weiteres Tiktok-Video mit etwa einer Million Aufrufen zeigt kein authentisches Material: Zu sehen ist ein fast komplett zerstörter Flughafen. Dazu heißt es „Tel Aviv Airport Right Now“ („Flughafen Tel Aviv in diesem Moment“). 

Dass dieses Video KI-generiert ist, erkennt man laut Experten an seltsamen Größenverhältnissen sowie an dem merkwürdigem Fahrverhalten der Autos (Quelle: Tiktok; Screenshot: CORRECTIV.Faktencheck)

Martin Steinebach vom Fraunhofer-Institut für Sichere Informationstechnologie weist darauf hin, dass im Video die Größenverhältnisse zwischen Flugzeugen und Umgebung nicht stimmig seien. Weiterhin sei das Fahrverhalten der Autos seltsam. So ist ab Sekunde acht zu sehen, wie mehrere Autos in Schutthaufen fahren. Hani Farids Analyse ergibt, dass auch dieses Video laut unsichtbaren Wasserzeichen mit Googles KI-Video-Generator Veo erstellt wurde. 

Video von Raketen über Tel Aviv ist echt, aber mehrere Monate alt

Ein Video, das auf Youtube und X kursiert, soll angeblich zeigen, wie iranische Raketen in Tel Aviv einschlagen. Auch das offizielle X-Profil der israelischen Streitkräfte verbreitete die Aufnahme in einem Video-Zusammenschnitt mit der Behauptung, es seien aktuelle Angriffe zu sehen.

Das Video wurde jedoch schon am 1. Oktober 2024 auf Tiktok veröffentlicht. Laut Bildunterschrift zeigt es tatsächlich iranische Raketen, die in Tel Aviv einschlagen, das Video ist auf Tiktok aber inzwischen gelöscht. Auf X findet es sich ebenfalls, veröffentlicht am 9. Oktober 2024, dort mit dem Text: „Der schönste Blickwinkel auf den iranischen Raketenangriff. Ein Besatzer aus Tel Aviv hat diese historischen Bilder aufgenommen.“ 

Dieses Video zeigt zwar einen Raketenangriff auf Israel, ist aber schon von Oktober 2024 (Quelle: X; Screenshot und Schwärzung: CORRECTIV.Faktencheck)

Anfang Oktober 2024 gab es tatsächlich einen iranischen Raketenangriff auf Tel Aviv, wie etwa ein Video der Nachrichtenagentur Reuters vom 2. Oktober 2024 zeigt. Auch Al Jazeera und CNN berichteten über die Angriffe.

Videogeneratoren sind inzwischen leichter verfügbar und liefern bessere Qualität

Auffällig ist bei den aktuell kursierenden Fakes: Im Vergleich zu vergangenen Konflikten scheinen mehr KI-generierte Videos in Sozialen Netzwerken zu kursieren. 

Valentin Schwind von der Frankfurt University of Applied Sciences, schreibt uns, es gebe einen klaren Trend „hin zur Nutzung von immer mehr KI-generierten Videomaterial für propagandistische Zwecke und natürlich Fake News“. 

Martin Steinebach vom Fraunhofer Institut für Sichere Informationstechnologie führt das auf die bessere Verfügbarkeit und Qualität von Videogeneratoren zurück. Es sei für Anwenderinnen und Anwender „leicht geworden, entsprechende Inhalte zu verbreiten“ . Zusammen mit der gestiegenen Bedeutung von Videodiensten wie Tiktok als Informationsquelle, sei das „ein offensichtlicher Nährboden für die Verbreitung entsprechender Fälschungen“.

Valentin Schwind gibt darüber hinaus zu bedenken: Videos mit vielen Klicks verleiten über die Algorithmen der Sozialen Netzwerke zum Ansehen weiterer Videos. „Videos werden also KI-generiert, um allein durch provozierende Inhalte oder die pure Masse Klicks auf andere Videos oder Profile zu ziehen“, schreibt Schwind. Dort werde dann auf die eigentliche Nachricht oder Ideologie verwiesen. Die KI-generierten Inhalte seien daher häufig „eine schnelle Eintrittskarte in die Informationsblase“.

Alle Faktenchecks zu Falschmeldungen und Gerüchten zum Krieg im Nahen Osten finden Sie hier.

Redigatur: Max Bernhard, Matthias Bau

Zur Quelle wechseln
Author: Steffen Kutzner

#angriffen #israel #kursieren #videos #welche #zwischen

Merz bei Trump: Welche Falschbehauptungen Trump über Deutschland und Europa aufstellte

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Nach dem Gespräch von Friedrich Merz und US-Präsident Donald Trump zog Merz ein positives Fazit: Es seien „sehr gute persönliche, aber auch politisch zielführende Gespräche“ gewesen, sagte er der ARD

Doch: Merz ließ mehrere falsche Behauptungen, die Trump aufgestellt hat, unwidersprochen. CORRECTIV.Faktencheck ordnet einige, die Deutschland und Europa betreffen, ein.

Trump nennt zu hohe Zahlen zu Kriegstoten in der Ukraine

Gleich mehrfach spricht der US-Präsident über Todesopfer in Russlands Krieg gegen die Ukraine. Er sagt: 5.000 bis 6.000 Soldaten pro Woche würden getötet werden. Dem entgegnet Merz zumindest, er kenne die Zahlen dazu nicht.

Zahlen zu Todesopfern in Kriegen sind stets mit Vorsicht zu betrachten. Unter anderem, weil Kriegsparteien Interesse daran haben, ihre eigenen Opferzahlen zu unter- und die des Gegners zu übertreiben, wie wir hier erklären.

Es gibt jedoch mehrere Organisationen, die versuchen, die Zahlen realistisch zu schätzen. Eine aktuelle Analyse des US-amerikanischen Center for Strategic and International Studies (CSIS) geht von 60.000 bis 100.000 getöteten ukrainischen Soldatinnen und Soldaten aus. Das Projekt UA Losses veröffentlicht Zahlen ukrainischer Verluste, die aus Todesmeldungen hervorgehen, aktuell sind das 147.000. 

Bei den russischen Streitkräften schätzt das CSIS die Zahl der Toten auf 200.000 bis 250.000. Das russische kremlkritische Medium Mediazona untersuchte in Zusammenarbeit mit der BBC Zahlen zu getöteten russischen Militärangehörigen. Sie schätzen sie bis Januar 2025 auf 138.500 bis 200.000. Die BBC geht in einem aktuellen Bericht davon aus, dass zwischen 164.000 und 237.000 russische Soldatinnen und Soldaten im Verlauf des Krieges starben.

Unter Annahme der höchsten Zahlen starben wöchentlich bis zu etwa 2.300 Streitkräfte in den über 170 Wochen, die der Krieg gegen die Ukraine bislang andauert.

Später sagt Trump weiter: Ein neuer Report zeige, dass Millionen Menschen sterben würden. Welchen Report er meint und ob es um Streitkräfte oder auch um Zivilbevölkerung geht, ist unklar. Naheliegend ist, dass er den CSIS-Bericht meint, in dem von fast einer Million „casualties“ bei den russischen und 400.000 bei den ukrainischen Streitkräften die Rede ist. Das Wort „casualties“ beschreibt in diesem Zusammenhang Getötete und Verwundete.

Trump übertreibt bei Größe von Nord Stream 2 und seiner Rolle beim Stopp des Projekts

Trump behauptet an mehreren Stellen, er habe die Gas-Pipeline Nord Stream 2 gestoppt. Die politischen Entscheidungen rund um die Pipeline nahmen einige Wendungen, fest steht aber: Trump ist nicht allein dafür verantwortlich, dass die Pipeline, die Gas von Russland nach Europa bringen sollte, nie in Betrieb ging. 

Trump unterzeichnete im Dezember 2019 ein Sanktionspaket gegen beteiligte Firmen. Im November 2021 setzte die deutsche Bundesnetzagentur das Zertifizierungsverfahren von Nord Stream 2 vorläufig aus, weil der Betreiber nicht in einer Rechtsform nach deutschem Recht organisiert war. Nach dem Großangriff Russlands gegen die Ukraine im Februar 2022 erklärte der damalige Bundeskanzler Olaf Scholz, die Zertifizierung werde gestoppt. Im September 2022 wurden die Pipelines Nord Stream 1 und 2 bei Sprengstoffanschlägen beschädigt. 

Zuletzt hatten laut Medienberichten US-Investoren Interesse an der teils zerstörten Pipeline gezeigt, der Spiegel berichtet, dass die deutsche Bundesregierung ihren Betrieb in Zukunft aber verhindern wolle.

Trump sagt außerdem, Nord Stream 2 sei die größte Pipeline der Welt. Laut Bundestag ist die Pipeline 1.230 Kilometer lang und damit nur einen Bruchteil so lang wie etwa die fast 9.000 Kilometer lange West-East Gas Pipeline in China. Laut einem Medienbericht von Januar 2024 hatte die West-East-Pipeline damals eine Kapazität von 77 Milliarden Kubikmeter Gas jährlich, Nord Stream 2 sollte eine jährliche Kapazität von 55 Milliarden Kubikmeter Erdgas haben.

Anders als von Trump behauptet, haben die USA nicht mehr Hilfsgelder an die Ukraine gegeben als Europa

Dass der Ukrainekrieg beendet werden soll, darin sind sich Trump und Merz einig. Doch die Summen der Hilfsgelder an die Ukraine unterscheiden sich mit Blick auf die USA und Europa. Laut Trump, hätten die USA bereits 350 Milliarden Dollar „ausgegeben“. Das sei viel mehr als Europa ausgegeben habe. Das behauptet Trump nicht zum ersten Mal. Seine Behauptung wurde schon mehrfach widerlegt und bleibt auch im Juni 2025 falsch. 

Der aktuellste Bericht der zuständigen Generalinspekteure zeigt, dass der US-Kongress deutlich weniger Gelder bewilligte. Seit Beginn des Ukrainekriegs sind das insgesamt rund 185 Milliarden Dollar. Die Gelder stehen der sogenannten „Operation Atlantic Resolve“ zur Verfügung. Das ist ein umfassendes Programm, das die USA ursprünglich 2014 einrichtete. Es soll der „Abschreckung gegen die russische Aggression gegen die NATO“ und der „Stärkung des Bündnisses“ dienen und beinhaltet auch die Unterstützung für die Ukraine. 

Den größten Anteil der rund 185 Milliarden Dollar nutzen die USA selbst, heißt es in dem Bericht. Damit soll der US-Rüstungsbestand um die Materialien aufgestockt werden, die zuvor an die Ukraine geliefert wurden. Von den 185 Milliarden Dollar wurden bislang aber nur 89 Milliarden tatsächlich ausgezahlt.

Der „Ukraine Support Tracker“ des Instituts für Weltwirtschaft Kiel (IfW) schaut genauer hin. Das Institut erfasst militärische, finanzielle und humanitäre Hilfsgelder, die der Ukraine direkt zugewiesen oder als Zusage vorgemerkt sind. „Zugewiesen“ bedeutet, dass die Gelder bereits ausgezahlt wurden oder zur Auszahlung vorgesehen sind, zum Beispiel in Form von Beschaffungsverträgen. Nicht berücksichtigt werden aber zum Beispiel Gelder, die zur Wiederauffüllung von US-Waffenbeständen verwendet wurden. 

Die Daten des Kieler Instituts für Weltwirtschaft zeigen, dass die tatsächlich bis Ende Februar 2025 ausgezahlten Hilfsgelder der USA geringer sind als die Hilfsgelder europäischer Regierungen zusammengerechnet. (Quelle: Institut für Weltwirtschaft Kiel; Screenshot: CORRECTIV.Faktencheck)

Laut IfW-Daten zahlte die USA an die Ukraine bis Ende Februar 2025 rund 114,6 Milliarden Euro Hilfsgelder (umgerechnet aktuell etwa 130 Milliarden US-Dollar). Europas ausgezahlte Unterstützung beläuft sich dagegen auf etwa 138 Milliarden Euro (umgerechnet aktuell etwa 157 Milliarden US-Dollar).

Auf Anfrage von CORRECTIV.Faktencheck, ob Merz Trump abseits der Kameras auf dessen Falschbehauptungen ansprach, schreibt eine Regierungssprecherin: Man bewerte den Gesprächsverlauf im Oval Office im Nachgang nicht weiter, die anschließenden Gespräche seien vertraulich gewesen.

Update, 6. Juni 2025: Wir haben das Statement einer Regierungssprecherin ergänzt.

Redigatur: Steffen Kutzner, Paulina Thom

Zur Quelle wechseln
Author: Gabriele Scherndl

#aufstellte #deutschland #europa #falschbehauptungen #trump #welche

BR24: Sechs Monate “Genderverbot” – Welche Bilanz ziehen Bayerns Unis?

Ein halbes Jahr nach Bayerns Genderverbot: Behörden und Hochschulen mussten Gendersternchen und Co. aus dem Schriftverkehr verbannen. Es gab Beifall und Proteste. Doch hat die neue Regelung wirklich etwas verändert?

Direktlink

#bayerns #bilanz #genderverbot #monate #sechs #welche #ziehen

Sechs Monate "Genderverbot": Welche Bilanz ziehen Bayerns Unis?

Ein halbes Jahr nach Bayerns Genderverbot: Behörden und Hochschulen mussten Gendersternchen und Co. aus dem Schriftverkehr verbannen. Es gab Beifall und Proteste. Doch hat die neue Regelung wirklich etwas verändert?

BR24
Schaue dieses Video BEVOR DU DIR ein Sound-System holst! – Bikesound FAQ

Source: Schaue dieses Video BEVOR DU DIR ein Sound-System holst! – Bikesound FAQ by Fabian Flex. Please don’t forget to give the Video a “Like” on Youtube and subscribe to the channel! Alles was du zum Thema Bikesound vor dem Kauf wissen musst! Ads: DISTORTED PEOPLE – Premium Fashion https://www.distortedpeople.com/flex Maximaler Rabatt mit dem Code: […]

The Motorbike Channel

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Faktencheck

Verwirrung um Prognose und Wahlergebnis: Welche Zahlen am Wahlabend im TV zu sehen sind

Dass das Fernsehen bei der Europawahl 2024 um 18 Uhr schon Wahlergebnisse ausstrahle, ist für manche Beleg dafür, dass die Wahl „fake“ sei – doch zu diesem Zeitpunkt geht es nur um Prognosen.

von Gabriele Scherndl

12. Juni 2024

Die Europawahl ist in Sozialen Netzwerken vielfach Gegenstand von Desinformation und Verschwörungserzählungen. So auch in einem Tiktok-Beitrag, der eine Wahlprognose fälschlicherweise als Wahlergebnis darstellt. (Quelle: Silas Stein / DPA / Picture Alliance) Behauptung

Dass kurz nach Wahlschluss die Wahlergebnisse im Fernsehen gezeigt würden, belege, dass die Ergebnisse „fake“ seien.

Aufgestellt von: Beiträgen auf Tiktok Datum:
10.06.2024

Quelle

Bewertung

Falsch
Über diese Bewertung

Falsch. Direkt nach Wahlschluss wird in der Regel über Prognosen berichtet, also erste Ergebnisse von Umfragen an den Wahllokalen. Das Wahlergebnis steht erst fest, wenn alle Stimmen ausgezählt sind und mehrfach überprüft wurden.

Um „Punkt 18 Uhr“ bei der Europawahl 2024 fragt ein Nutzer in einem Tiktok-Video, „Leute wollt ihr uns eigentlich verarschen?“ Wie könne schon klar sein, wie die Wahl ausgegangen ist, wenn doch immer noch Stimmen ausgezählt werden, fragt er.

Im Video zu sehen ist ein Fernseher, auf dem das ZDF läuft, genauer: der Moment, an dem erste Zahlen zur Wahl publik wurden. Dazu hört man den Mann, wie er sagt: „Bin ich der einzige, der es merkt, dass wir hier grundsätzlich total verarscht werden?“

Das erste Video, das wir dazu gefunden haben – wohl das des Urhebers – ist mittlerweile gelöscht. Doch zu diesem Zeitpunkt haben bereits mehrere Nutzerinnen und Nutzer das Video weiterverbreitet – und damit Hunderttausende erreicht. Die Wahlergebnisse hätten vorher schon festgestanden, heißt es dazu in den Kommentaren und: „Es wird immer betrogen“. 

In einem Tiktok-Beitrag wird das Ergebnis der Europawahl angezweifelt, weil das ZDF schon um 18 Uhr Prozentzahlen präsentierte. Doch das ZDF berichtete kein finales Ergebnis, sondern eine Prognose. (Quelle: Tiktok; Screenshot: CORRECTIV.Faktencheck)

TV-Sender berichten nach Schluss der Wahllokale über Prognosen, nicht über Ergebnisse

Tatsächlich – und darauf weisen einige auch in den Kommentaren auf Tiktok hin – berichtete das ZDF am 9. Juni 2024 um 18 Uhr nicht das Endergebnis der Europawahl. 

Die Zahlen zu diesem Zeitpunkt sind eine Prognose der Forschungsgruppe Wahlen, sie beruhen also auf Umfragen. Das wird sowohl im (ab Minute 27:07), der auf Tiktok gezeigt wird, als auch im Live-Ticker des ZDF am Wahltag angegeben. Der Tiktok-Nutzer, der das Video vermutlich als erster hochgeladen hatte, antwortete nicht auf eine Anfrage von CORRECTIV.Faktencheck.

Diese Prognosen, so schreibt die Forschungsgruppe Wahlen auf ihrer Webseite, beruhen auf den Aussagen von Wählerinnen und Wählern nach dem Verlassen des Wahllokals. Sie werden vor zufällig ausgewählten Wahllokalen befragt. Diese Daten werden dann noch korrigiert und mit Schätzungen für die Briefwahlergebnisse zusammengeführt. 

Nicht nur die Forschungsgruppe Wahlen macht solche Prognosen. Für die ARD macht diese das Forschungsinstitut Infratest Dimap. Weil beide Institute nicht exakt dieselbe Stichprobe und Methodik haben, weichen die Prognose-Ergebnisse etwas voneinander ab.

Die Auszählung der Stimmen zur Europawahl beginnt um 18 Uhr – das Wahlergebnis steht erst später fest

Die Auszählung der Stimmen beginnt um 18 Uhr. Dann werden zunächst Prognosen und später Hochrechnungen veröffentlicht. Bei Hochrechnungen fließen ausgezählte Stimmen in die Berechnung mit ein. Je mehr Wahlkreise ausgezählt werden, desto genauer sind diese Vorhersagen.

Erst wenn alle Stimmen ausgezählt sind, veröffentlicht die Bundeswahlleiterin das vorläufige Endergebnis – bei der Europawahl war das in der Nacht auf Montag der Fall. Die Auszählung wird im Anschluss mehrfach überprüft, bis die Landeswahlleitungen und die Bundeswahlleiterin das endgültige Wahlergebnis bekannt geben. Im Fall der Europawahl ist das bis zum 12. Juni 2024 noch nicht passiert.

Alle Faktenchecks zur Europawahl 2024 finden Sie hier

Redigatur: Steffen Kutzner, Sarah Thust

Die wichtigsten, öffentlichen Quellen für diesen Faktencheck:

  • ZDF-Bericht über die Europawahl 2024, 9. Juni 2024: Link (archiviert)
  • Methodik, Forschungsgruppe Wahlen, abgerufen am 11. Juni 2024: Link (archiviert)
  • Das Wahlsystem, Bundeswahlleiterin, Stand 4. April 2024, abgerufen am 11. Juni 2024: Link (archiviert)
  • Vorläufiges Ergebnis der Europawahl 2024, Stand 12. Juni 2024: Link (archiviert)

Zur Quelle wechseln
Author: Gabriele Scherndl

https://www.bachhausen.de/verwirrung-um-prognose-und-wahlergebnis-welche-zahlen-am-wahlabend-im-tv-zu-sehen-sind/

#prognose #sehen #verwirrung #wahlabend #wahlergebnis #welche #zahlen

Verwirrung um Prognose und Wahlergebnis: Welche Zahlen am Wahlabend im TV zu sehen sind

Dass das Fernsehen bei der Europawahl 2024 um 18 Uhr Wahlergebnisse zeige, ist für manche Beleg dafür, dass die Wahl „fake“ sei – dabei geht es um Prognosen.

correctiv.org

Dieser Artikel stammt von Netzpolitik.org.

Einfache Meldemöglichkeiten, strengere Werberegeln, weniger manipulatives Design: Ab dem 17. Februar treten durch das Digitale-Dienste-Gesetz der EU jede Menge neue Regeln in Kraft. Ein Überblick, was sich jetzt ändert.

Die Schonzeit für Diensteanbieter läuft am 17. Februar ab. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Daniel Cañibano

Ab dem 17. Februar tritt der Digital Services Act, das Digitale-Dienste-Gesetz der EU, vollständig in Kraft. Während bereits seit letztem Jahr eine Reihe an Regeln für „sehr große“ Online-Plattformen und Suchmaschinen gelten, werden nun auch für kleinere Anbieter neue Pflichten wirksam – also auch für jene, die weniger als 45 Millionen monatliche Nutzer:innen in der EU haben.

Eigentlich müssten die letzten notwendigen rechtlichen Anpassungen in Deutschland bis dahin fertig sein, doch das hiesige Digitale-Dienste-Gesetz befindet sich noch im Abstimmungsprozess. Am 18. Januar beriet der Bundestag es in erster Lesung, am kommenden Mittwoch hört der Digitalausschuss dazu Fachleute an. Es wird also etwas später in Deutschland, bis die Struktur der Online-Plattform-Aufsicht final geklärt ist. Den wichtigsten Regeln steht das jedoch nicht im Weg.

Illegale Inhalte leichter melden

Nutzer:innen sollen es künftig überall leicht haben, mutmaßlich illegale Inhalte bei Plattformen und Hostingdiensteanbietern zu melden. Dafür müssen die Betreiber eine elektronische Übermittlung anbieten, die „leicht zugänglich und benutzerfreundlich“ ist.

Wer etwas gemeldet hat, muss über das Ergebnis informiert werden. Auch wer von einer möglichen Löschung oder Sperrung betroffen ist, soll Bescheid bekommen – inklusive einer Begründung und Informationen dazu, wie man sich gegen die Entscheidung wehren kann.

Schätzt der Anbieter ein, dass es sich bei einem Inhalt wahrscheinlich um eine Straftat handelt, muss er entsprechenden Behörden im jeweiligen EU-Land Bescheid geben. In Deutschland soll das Bundeskriminalamt als zentrale Meldestelle fungieren.

Zugleich regeln der DSA und sein deutscher Ableger künftig Netzsperren. So findet sich die bisherige Regelung aus dem Telemediengesetz nun erweitert im Digitale-Dienste-Gesetz wieder: Lässt sich ein das Urheberrecht verletzender Inhalt über die vorgesehenen Wege nicht entfernen, kann eine Sperre angeordnet werden.

Mehr Berichts- und Transparenzpflichten

Die strengsten Auflagen gelten hierbei für die sogenannten VLOPs und VLOSEs, also für „sehr große“ Online-Plattformen und Suchmaschinen. Sie müssen halbjährliche Transparenzberichte veröffentlichen, die einen Einblick in die Arbeitsweise ihrer Moderationsteams gewähren sollen – unter anderem mit Details zu Löschungen von Inhalten und den jeweiligen Gründen. Zudem müssen die sehr großen Anbieter ihre Dienste jährlich auf systemische Risiken hin untersuchen, etwa auf massenhafte Desinformation bei Wahlen.

Viele Pflichten gelten ab diesem Samstag auch für Anbieter, die nicht ganz so groß wie Facebook sind. Auch sie müssen regelmäßig Transparenzberichte abliefern, allerdings nur ein Mal pro Jahr. Mit Ausnahme von Klein- und Kleinstunternehmen müssen zudem alle Online-Dienste halbjährlich die Anzahl ihrer monatlichen Nutzer in der EU veröffentlichen.

Ein weiterer Puzzlestein ist die neue DSA-Transparenzdatenbank, die seit Ende des Vorjahres in Betrieb ist und sich langsam füllt. Dort sollen ohne große Verzögerung alle Moderationsentscheidungen samt Begründung auflaufen.

Insgesamt sollen all diese Maßnahmen mehr Licht in die Welt der Online-Dienste bringen, die von außen wie eine Black Box anmuten und denen Nutzer:innen bislang fast ohnmächtig gegenüberstanden. Bei den privaten Anbietern bleibt der DSA jedoch nicht stehen, mehr Klarheit soll es auch über staatliche oder halb-staatliche Maßnahmen geben. So muss etwa öffentlich Buch über Löschaufforderungen von Behörden und „vertrauenswürdiger Hinweisgeber“ geführt werden. Auch die Aufsichtsbehörden müssen jährlich detaillierte Tätigkeitsberichte veröffentlichen.

Weniger manipulatives Design

Als „Dark Patterns“ bezeichnet man Design-Muster, die Nutzende zu einer bestimmten Handlung verleiten oder sie davon abhalten sollen. Der DSA verbietet solche Praktiken und nennt dabei explizit als Beispiel, dass „bestimmte Auswahlmöglichkeiten stärker hervorgehoben werden“. Das ist etwa der Fall, wenn uns ein Pop-up-Fenster dazu bringen will, etwas zu abonnieren – mit einem großen, farbigen Button zum Abo und einem kaum erkennbaren, blassen Kreuzchen zum Schließen des Fensters.

Manipulativ ist es auch, wenn die Anmeldung für einen Dienst kinderleicht ist, der Abmelde-Dialog aber tief im Menü versteckt. All das soll künftig weniger werden, so jedenfalls die Hoffnung. Das Dark-Patterns-Verbot enthält indes Ausnahmen, etwa für das weitverbreitete, manipulative Cookie-Banner-Design. Das ist bereits in anderen Gesetzen geregelt. Und hier zeigt sich auch das Problem mit entsprechenden Praktiken: Es gibt so viele davon, dass die Aufsichtsbehörden kaum hinterherkommen, das bestehende Recht durchzusetzen.

Strenger regulierte Online-Werbung

Wenn eine Plattform Online-Werbung ausspielt, muss sie die zum einen klar als solche kennzeichnen. Aber auch darüber hinaus sollen Nutzende in Zukunft schneller sehen können, von wem die Werbung kommt, wer für sie bezahlt hat und welche Auswahlkriterien dazu geführt haben, dass eine spezifische Anzeige ausgespielt wird.

Verboten für Plattformen ist künftig Werbung, die aufgrund sensibler Kriterien ausgewählt wird. Das sind etwa Gesundheitsinformationen, politische Überzeugung oder sexuelle Orientierung einer Person. Persönliche Daten Minderjähriger dürfen überhaupt nicht mehr verarbeitet werden, um gezielte Werbung anzuzeigen. Wobei dies in der Praxis nicht konsequent umsetzbar sein dürfte, wenn die Anbieter das Alter der entsprechenden Personen nicht kennen. Zusätzliche Daten, um das festzustellen, müssen sie nicht erheben.

Zentrale Koordinierung für Beschwerden

Kernstück für den DSA ist eine zentrale Beschwerdestelle in jedem Mitgliedstaat, der sogenannte Digital Services Coordinator. An diese Koordinierungsstelle für digitale Dienste können sich Nutzende wenden, wenn ein Online-Dienst sich nicht an die Regeln hält. Da Deutschland das Digitale-Dienste-Gesetz noch nicht verabschiedet hat, wird das nicht von Samstag an wie vorgesehen funktionieren. Als sicher gilt aber, dass eine neue Abteilung in der Bundesnetzagentur diese Aufnahme übernehmen wird – und die sich behelfsmäßig jetzt schon mit designierten Partnerbehörden in anderen EU-Ländern sowie der EU-Kommission abspricht.

Die Koordinierungsstelle nimmt Beschwerden an, etwa von Nutzer:innen sozialer Medien oder von Einzelhändlern auf einem Online-Marktplatz. Dann entscheidet sie, wie es weitergeht: Sitzt der jeweilige Anbieter in Deutschland, dann ist sie direkt zuständig, für Anbieter aus anderen Herkunftsländern reicht sie die Beschwerde an die jeweilige nationale Koordinierungsstelle weiter. Für die sehr großen Anbieter ist hingegen die EU-Kommission verantwortlich.

Auch in Deutschland liegt die Aufsicht nicht alleine bei der Bundesnetzagentur. Beim Jugendschutz sprechen die Landesmedienanstalten und die Bundeszentrale für Kinder- und Jugendmedienschutz mit, während sich um bestimmte Aspekte personalisierter Online-Werbung der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit kümmert. Und schließlich vertritt die Koordinierungsstelle Deutschland in einem neuen EU-Gremium, wo sich künftig alle Aufseher:innen regelmäßig treffen, austauschen und koordinieren sollen.

Von diesem Wirrwarr sollen die Nutzenden im Idealfall kaum etwas mitbekommen. Die Koordinierungsstelle ihres Landes soll sie als alleinige Ansprechstelle von Anfang bis Ende ihrer Beschwerde begleiten, unabhängig davon, wo sich der Fall gerade befindet.

Strafen und Befugnisse

Für die effektive Aufsicht erhält die Koordinierungsstelle weitreichende Ermittlungsbefugnisse. Sie kann Geschäftsräumlichkeiten durchsuchen, Zeug:innen vernehmen und Beweismittel beschlagnahmen. Außerdem kann sie Zwangsgelder und Geldbußen verhängen, wenn sie Rechtsbrüche feststellt.

Neben ihren Aufsichtsaufgaben begutachtet die Koordinierungsstelle Forschungsaufträge auf Datenzugang bei den Online-Diensten, sie akkreditiert außergerichtliche Streitbeilegungsstellen und segnet vertrauenswürdige Hinweisgeber ab. Damit sind Organisationen oder Behörden gemeint, die in einem Fachgebiet als besonders kompetent gelten und deren Hinweise von Online-Diensten bevorzugt behandelt werden sollen.

Zusätzlichen Input soll ein Beirat liefern: Er soll aus 16 Mitgliedern bestehen, davon jeweils aus vier Vertreter:innen der Wissenschaft und von Wirtschaftsverbänden sowie acht Vertreter:innen der Zivilgesellschaft, einschließlich Verbraucherverbänden.

Noch ein weiter Weg

Auch wenn die neuen Regeln am morgigen Samstag in Kraft treten, wird sich erst in den kommenden Monaten zeigen, wie wirksam sie wirklich werden. Schon bei den länger geltenden Vorschriften für sehr große Anbieter stellte etwa der Verbraucherzentrale Bundesverband fest, dass diese längst nicht alles umsetzen. Die Verbraucherschützer:innen fanden weiter manipulative Designs, mangelhafte Werbekennzeichnungen und versteckte Meldemechanismen.

Es kommt also mit Sicherheit jede Menge Arbeit auf die Aufsichtsgremien zu, die neuen Regeln auch zu überprüfen und durchzusetzen. Dabei können alle mithelfen, denen Verstöße auffallen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Anna Biselli

https://www.bachhausen.de/digital-services-act-welche-regeln-fuer-online-dienste-jetzt-in-kraft-treten/

#dienste #digital #jetzt #online #regeln #services #welche

Digital Services Act: Welche Regeln für Online-Dienste jetzt in Kraft treten

Einfache Meldemöglichkeiten, strengere Werberegeln, weniger manipulatives Design: Ab dem 17. Februar treten durch das Digitale-Dienste-Gesetz der EU jede Menge neue Regeln in Kraft. Ein Überblick, was sich jetzt ändert.

netzpolitik.org

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist…
EU-Kommission, Rat und Parlament verhandeln derzeit im Trilog die finale Fassung der KI-Verordnung. In der morgigen Verhandlungsrunde geht es vor allem um den Hochrisikobereich. Und gerade hier weist die Verordnung noch Lücken auf, die eine neue Qualität der Massenüberwachung ermöglichen würden.
Automatisierte Entscheidungen sollten möglichst transparent erfolgen – Public Domain Midjourney (A machine for automated decision-making, steampunk)Lena Rohrbach ist Referentin für Menschenrechte im digitalen Zeitalter und Rüstungsexportkontrolle bei Amnesty International.
„Es war so seltsam. Ich bekam einen Brief, in dem stand, dass ich zu Unrecht Kindergeld erhalten hatte. Ich war Anfang 20. Ich wusste nicht viel über die Steuerbehörden. Ich habe zusätzlich zu meinem Job angefangen, als Putzfrau zu arbeiten, um das Geld zurückzuzahlen. Ich sah einfach, wie mir alles entglitt.“
Das sagt Batya Brown, eine junge Mutter aus den Niederlanden, gegenüber Amnesty International. Weil die niederländische Steuerbehörde einen fehlerbehafteten Algorithmus eingesetzt hatte, verlangte sie von mehr als 20.000 Familien zu Unrecht hohe Summen an Kindergeld zurück. Der Fehler stürzte unzählige Familien in Armut, mehr als 1.000 Kinder landeten in Pflegestellen. Die niederländische Regierung musste Anfang 2021 in Folge des Skandals zurücktreten.
Das niederländische Beispiel sollte ein Weckruf für die EU-Regierungen sein. Damit Menschen nicht zu Schaden kommen, muss der Einsatz von KI-Systemen reguliert werden. Das hat sich die EU mit der KI-Verordnung vorgenommen, dem weltweit ersten umfassenden Regelwerk für Künstliche Intelligenz.
Am morgigen Dienstag will der spanische Ratsvorsitz weitere große Fragen der Verordnung klären. Im Fokus steht dabei unter anderem die Regulierung von sogenannter Hochrisiko-KI. EU-Parlament, Kommission und die Regierungen der Mitgliedsstaaten – der sogenannte Rat – müssen sich derzeit im sogenannten Trilog auf einen gemeinsamen Verordnungsentwurf einigen. Ob Fälle wie der von Batya Brown künftig verhindert werden, ist noch unklar. Denn die Verordnung weist bislang noch große Schlupflöcher auf.
Wofür muss sich die Bundesregierung in den Verhandlungen einsetzen, um Menschenrechte zu schützen?
1. Koalitionsvertrag einhalten – Gesichtserkennung und andere inakzeptable Technologien verbieten
Amnesty International und mehr als 150 weitere NGOs sind sich einig: Der Einsatz von Gesichtserkennungstechnologie an öffentlich zugänglichen Plätzen ist mit den Menschenrechten unvereinbar. Die Bundesregierung hat im Koalitionsvertrag zugesagt, dies zu verbieten. Erfreulicherweise setzt sie sich – ebenso wie das EU-Parlament – auch weiterhin für ein Verbot ein. Allerdings fordert sie Ausnahmen für Sicherheitsbehörden, die eine zeitverzögerte Analyse zulassen. Nun aber droht ein Rückschritt: Mehrere EU-Mitgliedsstaaten wollen derart viele Ausnahmen einführen, dass die Verordnung damit letztlich einer beschränkten Nutzungserlaubnis gleichkäme.
Ein Kompromissvorschlag für die Verhandlungen sieht vor, Gesichtserkennung auch in Echtzeit zu erlauben, etwa für die Prävention und Verhinderung bestimmter Verbrechen. Dafür würde bereits der Verdacht von Drogenhandel ausreichen. Mit einer solchen Begründung ließe sich vermutlich die halbe Berliner Innenstadt überwachen. Gesichtserkennung an öffentlichen Plätzen aber ist und bleibt ein Massenüberwachungsinstrument, das konsequent verboten werden muss.
Auch bei Predictive Policing, Emotionserkennungs-KI und Systemen zur biometrischen Kategorisierung drängen die Regierungen auf weitere Ausnahmen für Sicherheits- und Migrationsbehörden. Auch das wäre eine fatale Entscheidung. Amnesty International hat in Großbritannien und den Niederlanden nachgewiesen, wie Predictive Policing zu Massenüberwachung, Fehlentscheidungen und Diskriminierung führt.
2. KI-Einsatz durch Behörden darf kein Geheimnis sein
Batya Brown wusste nicht, dass die niederländische Steuerbehörde einen Algorithmus eingesetzt hatte. Sie wusste daher auch nicht, mit welcher Begründung sie die Entscheidung am besten anfechten kann. Menschen müssen jedoch darüber in Kenntnis gesetzt werden, wann und wo sie KI-gestützten Entscheidungen ausgesetzt sind und über welche Rechte sie verfügen. Daher ist es zu begrüßen, dass der Entwurf der KI-Verordnung eine EU-Datenbank vorsieht, die sogenannte Hochrisiko-KI transparent aufführt.
Allerdings will der Rat ausgerechnet Sicherheits- und Migrationsbehörden von dieser Transparenzpflicht entbinden. Diese Behörden sollen hochproblematische KI einsetzen und tief in Grundrechte der EU-Bürger*innen eingreifen dürfen. Künftig könnten Polizeibehörden dann Predictive Policing einsetzen, um zum Beispiel „Gefahrenprognosen“ für die menschenrechtlich problematische Präventivhaft zu erstellen – und dieser Einsatz würde dann obendrein dem Behördengeheimnis unterliegen. Pauschale Ausnahmen von der Registrierungspflicht darf es daher nicht geben. Aufsichten wie nationale Datenschutzbehörden sollten immer auf sämtliche Informationen zugreifen können. Transparenz schafft Überprüfbarkeit und führt damit zu mehr statt zu weniger Sicherheit.
3. Kein Blankoschein für Missbrauch unter dem Deckmantel „Nationale Sicherheit”
Der Rat will die Entwicklung und den Einsatz von KI zu Zwecken der „nationalen Sicherheit“ nicht durch die Verordnung zu regulieren. Auch das Bundesinnenministerium setzt sich für eine solche pauschale Ausnahme ein. Das für die Verordnung ebenfalls zuständige Justizministerium unter Minister Marco Buschmann schweigt bislang dazu.
Eine solche Ausnahme würde jedoch geradezu zum Missbrauch einladen. Denn „nationale Sicherheit“ ist unscharf definiert. In Ungarn wurde etwa ein Gesetzespaket, das die Zivilgesellschaft zum Schweigen bringen soll, mit der nationalen Sicherheit begründet. Vor diesem Hintergrund ist es wenig überraschend, dass sich in einer Umfrage des European Center for not-for-Profit-Law eine Mehrheit der Befragten gegen eine solche Ausnahme ausgesprochen hat. Kein anderes EU-Gesetz sieht übrigens eine solche pauschale Ausnahme vor.
Die Bundesregierung muss dem Blankoschein ihre Unterstützung entziehen, andernfalls ist Missbrauch vorprogrammiert. Die deutschen Ministerien begründen ihre Unterstützung damit, dass die KI-Verordnung sonst in Rechtsbereiche der nationalen Sicherheit eingreifen könne, die eigentlich Angelegenheit der Mitgliedsstaaten sind. Diese Sorge lässt sich mit einer einfachen Formulierung ausräumen, die auch in der Datenschutzgrundverordnung genutzt wird. Dort heißt es, die Verordnung finde „keine Anwendung“ bei jeder Tätigkeit, „die nicht in den Anwendungsbereich des Unionsrechts fällt“.
4. Keine Schlupflöcher in der Definition von „Hochrisiko“-KI
Die Verordnung soll KI-Systeme in verschiedene Risikokategorien einstufen. Die EU-Kommission hat eine klare Definition für sogenannte Hochrisiko-KI vorgeschlagen. Sie soll stärker reguliert werden, um Risiken, die von ihr ausgehen, effektiver zu begegnen. Als hochriskant gelten unter anderem Systeme, die darüber entscheiden, welche Bewerber*innen zum Vorstellungsgespräch eingeladen werden, welchen Bildungsweg Schüler*innen einschlagen oder die – wie im Fall von Batya Browns – ob Eltern Kindergeld erhalten. Auf Druck von Wirtschaftslobbyist*innen soll diese Definition aufgeweicht werden. Unseriöse Anbieter könnten sich dann den Anforderungen an Hochrisiko-KI entziehen. Dafür könnte bereits eine begründete Selbsteinschätzung ausreichen, dass sie keine Hochrisiko-KI anbieten.
Aus Sicht der Bundesregierung soll die Möglichkeit einer solchen Selbsteinschätzung vor allem kleine und mittlere Unternehmen entlasten. Profitieren würden aber vor allem Techkonzerne: Sie verfügen über große Rechtsabteilungen, die begründen können, warum die Ausnahmeregeln für sie gelten. Größere Unternehmen können dann auch drohende finanzielle, rechtliche und Reputations-Risiken tragen, wenn Menschen durch ihre KI-Produkte zu Schaden kommen. Gerade kleine Start-ups und Unternehmen verfügen hingegen meist über weniger Ressourcen und können dies nicht tun.
5. Nachdenken schützt vor Fehlern – Grundrechts-Folgeabschätzungen erhalten
Zu Recht verortet der Verordnungsentwurf eine große Verantwortung für KI-Systeme und deren Auswirkungen bei deren Anbietern. Allerdings weisen diese Systeme mitunter Risiken auf, die sich erst aus der konkreten Anwendung ergeben. Es ist daher hilfreich, sich zunächst der mittel- und langfristigen Auswirkungen eines KI-Einsatzes gewahr zu werden. Deshalb sollte die EU die Betreiber*innen von hochriskanten KI-Systemen dazu verpflichten, vor deren Einsatz eine Grundrechts-Folgenabschätzung (Fundamental Rights Impact Assessment) vorzunehmen. Die Bundesregierung lehnt dies bislang leider ab. Es ist zu hoffen, dass sie sich noch eines Klügeren besinnt. Die Niederlande sind bereits aus Schaden klug geworden und haben eine solche Folgeabschätzungen eingeführt – als Reaktion auf den Kindergeldskandal vor einigen Jahren.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Gastbeitrag

https://www.bachhausen.de/ki-verordnung-auf-der-zielgeraden-welche-schlupfloecher-die-eu-jetzt-noch-schliessen-muss/

#jetzt #schlie #schlupflocher #verordnung #welche #zielgeraden

KI-Verordnung auf der Zielgeraden: Welche Schlupflöcher die EU jetzt noch schließen muss – netzpolitik.org

EU-Kommission, Rat und Parlament verhandeln derzeit im Trilog die finale Fassung der KI-Verordnung. In der morgigen Verhandlungsrunde geht es vor allem um den Hochrisikobereich. Und gerade hier weist die Verordnung noch Lücken auf, die eine neue Qualität der Massenüberwachung ermöglichen würden.

netzpolitik.org