Erfundene Quellen: Wie Chatbots die Wikipedia vergiften

Manche Nutzer:innen lassen sich Wikipedia-Artikel von Sprachmodellen generieren, inklusive erfundener Referenzen. Ein Wikipedia-Urgestein stolperte zufällig über die halluzinierten Artikel – ausgerechnet mit der Hilfe von einem Sprachmodell.

netzpolitik.org

KI-Video berichtet über erfundene AfD-Enthüllung zu einer Impfpflicht

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Die AfD soll geheime Pläne der Bundesregierung veröffentlicht haben, heißt es in mehreren Videos auf Instagram, Facebook und Tiktok. Eine KI-generierte Stimme berichtet darin, die Partei habe interne Belege dafür, dass die Bundesregierung „Zwangsimpfungen für alle Bürger“ gegen bestimmte Krankheiten plane. Wer sich weigere, dem drohten angeblich Bußgelder oder Gefängnis. Auch AfD-Vorsitzende Alice Weidel wird dazu zitiert. Es wird behauptet, die AfD habe eine bundesweite Kampagne gestartet. Die Videos erreichen Hunderttausende und sorgen in den Kommentaren für Empörung.  

Dieser Tiktok-Beitrag vom 23. März ist mutmaßlich der Ursprung der Falschbehauptung, er wurde hunderttausendfach angesehen (Quelle: Tiktok; Screenshot: CORRECTIV.Faktencheck)

Keine Belege für AfD-Enthüllung oder aktuelle Kampagne

Die AfD und ihre Bundestagsfraktion antworteten auf Nachfrage von CORRECTIV.Faktencheck nicht. Doch auch anhand öffentlicher Quellen lässt sich die Behauptung im Video widerlegen: Auf Kanälen der AfD ist nichts über die angebliche Enthüllung zu lesen. Weder auf den Webseiten der Partei, noch auf Accounts auf X, Instagram, Tiktok oder Facebook ist davon die Rede. Auch Medienberichte über die angebliche Enthüllung gibt es Stand 28. März 2025 keine. 

Dass Alice Weidel dazu gesagt habe, die Bundesregierung wolle damit die „körperliche Selbstbestimmung der Bürger abschaffen und Freiheitsrechte aushebeln“, wie sie in den Videos zitiert wird, ist ebenfalls nicht belegt. Weder auf Google, noch in der Pressedatenbank Genios taucht das Zitat auf. Das Büro von Alice Weidel antwortete nicht auf die Anfrage von CORRECTIV.Faktencheck, ob sie sich so geäußert hat.

Im KI-generierten Video ist die Rede davon, dass die AfD eine Kampagne gegen die geplante Maßnahme gestartet habe: Unter dem Hashtag #keinezwangsimpfung mache sie gegen die angebliche Einschränkung mobil. Auf X und Bluesky wird der Hashtag jedoch praktisch nicht genutzt.

Jener Tiktok-Account, der die Falschbehauptung nach unseren Recherchen als erstes verbreitet hat, antwortete bis zur Veröffentlichung dieses Textes nicht auf Anfrage von CORRECTIV.Faktencheck. Mindestens 30 weitere Tiktok-Videos nutzen den Originalton – also die KI-Stimme, die die Behauptung aufstellt – und verbreiten die Falschbehauptung so weiter. 

Impfpflicht gibt es deutschlandweit aktuell nur für die Masern – und dabei nur für manche Gruppen

Ein Impfzwang, von dem im Video zunächst die Rede ist, ist auch nicht gleichzusetzen mit einer Impfpflicht. Dass Menschen gegen ihren Willen geimpft werden, gibt es nur in seltenen Einzelfällen und ist nur unter einer Reihe von Bedingungen möglich. 

Im Video ist später nur noch von einer angeblichen Impfpflicht die Rede, also einer allgemeinen Verpflichtung, sich impfen zu lassen und gegebenenfalls Konsequenzen wie etwa Bußgelder in Kauf zu nehmen, wenn man sich dennoch nicht impfen lässt. 

Aber auch eine allgemeine Impfpflicht für alle Menschen in Deutschland wäre überraschend. Aktuell gibt es eine solche nicht, wie das Bundesgesundheitsministerium informiert. Einzig die Masernimpfung ist bundesweit für Personen vorgeschrieben, die in Schulen, Horten oder Kindertagespflege-Einrichtungen arbeiten oder betreut werden. Wer keinen Nachweis vorlegen kann, dem kann das Gesundheitsamt in bestimmten Fällen ein Tätigkeitsverbot aussprechen, schreibt das Bundesgesundheitsministerium auf seiner Webseite. Auch ein Bußgeld in Höhe von 2.500 Euro könne von der zuständigen Behörde im Einzelfall verhängt werden. 

An den Vorgaben geändert hat sich aktuell aber nichts: „Es gibt keine Überlegungen, eine weitere Impfpflicht einzuführen oder die bestehende Masernimpfpflicht auszuweiten“, schreibt das Bundesgesundheitsministerium auf Anfrage von CORRECTIV.Faktencheck.

Selbst für die Corona-Impfung gab es in Deutschland nie eine allgemeine Impfpflicht, auch wenn dazu über verschiedene Vorlagen im Bundestag abgestimmt wurde und sich Gesundheitsminister Karl Lauterbach zwischenzeitlich dafür aussprach. Zwischen März 2022 und Dezember 2022 galt aber eine einrichtungsbezogene Impfpflicht, etwa für Krankenhauspersonal. Das Verfassungsgericht Osnabrück entschied im September 2024, dass diese Regelung „im Lauf des Jahres 2022 in die Verfassungswidrigkeit hineingewachsen“ war. Im Januar 2025 kritisierte das Bundesverfassungsgericht das und erklärte die Richtervorlage für unzulässig. Das Gericht habe seine Überzeugungen zu den  „verfassungsrechtlichen Anforderungen“ nicht genügend begründet.

Redigatur: Sophie Timmermann, Steffen Kutzner

Die wichtigsten, öffentlichen Quellen für diesen Faktencheck:

  • „Ratgeber Impfen“, Bundesgesundheitsministerium: Link (archiviert) 
  • Fragen und Antworten zum Masernschutzgesetz, Bundesgesundheitsministerium: Link (archiviert)

Zur Quelle wechseln
Author: Gabriele Scherndl

#berichtet #einer #enthullung #erfundene #impfpflicht #keinezwangsimpfung #video

Erfundene „Regel“: Nein, im April wird keine 50-Euro-Strafe für verpasste Arzttermine eingeführt

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Faktencheck

Erfundene „Regel“: Nein, im April wird keine 50-Euro-Strafe für verpasste Arzttermine eingeführt

Ab April 2025 sollen laut einer „neuen Regel“ 50 Euro Strafe für verpasste Arzttermine anfallen, heißt es auf Tiktok. Das ist erfunden – es gibt keine gesetzliche Regelung, die das vorsieht. Manche Arztpraxen können zwar Ausfallhonorare fordern, doch das ist nicht die Regel.

von Steffen Kutzner

19. März 2025

In Sozialen Netzwerken kursiert die Falschbehauptung, dass ab April 50 Euro Strafe fällig würden, wenn ein Patient den Arzttermin nicht 24 Stunden vorher absagt. Das stimmt so nicht. (Symbolfoto: Michael Bihlmayer / Chromorange / Picture Alliance) Behauptung

Eine neue Regel sehe vor, dass ab 1. April 2025 50 Euro Strafe fällig werden, wenn Patientinnen und Patienten einen Arzttermin nicht mindestens 24 Stunden vorher absagen.

Aufgestellt von: Beiträgen auf Tiktok Datum:
17.02.2025

Quelle

Bewertung

Falsch
Über diese Bewertung

Falsch. Vereinzelt gibt es solche Ausfallhonorare zwar, sie allgemein für alle Ärzte einzuführen, ist aber weder beschlossen noch geplant. In den meisten Fällen haben Ärztinnen und Ärzte keinen Anspruch auf eine Ausgleichszahlung, weil sie in der Zeit eines nicht wahrgenommenen Termins andere Patienten behandeln können. Es gibt auch keine gesetzlich festgelegte Frist von 24 Stunden, zu der man einen Termin absagen muss.

„Das liest sich sehr stark nach einem Aprilscherz“, antwortete uns Roland Stahl, Pressesprecher der Kassenärztlichen Bundesvereinigung, als wir ihn fragten, ob ab dem 1. April 2025 eine Strafgebühr in Höhe von 50 Euro fällig werde, wenn man einen Arzttermin ohne Absage verstreichen lässt. Genau das wird in einigen Tiktok-Videos mit mehr als einer halben Million Aufrufe behauptet. Angeblich müsse man demnächst mindestens 24 Stunden vor dem Termin absagen, wenn man ihn nicht wahrnehmen könne. Das ist jedoch erfunden. 

Mehrere virale Beiträge auf Tiktok behaupten, dass ab April eine Strafzahlung für verpasste Arzttermine eingeführt werden soll. Eine solche neue Regelung gibt es jedoch nicht. (Quelle: Tiktok; Screenshot: CORRECTIV.Faktencheck)

Ein Sprecher des Bundesgesundheitsministeriums (BMG) schrieb uns, dass man auch im BMG von einem Beschluss zu einer Strafgebühr für verfallene Arzttermine nichts gehört habe. Ärzte könnten zwar, so erklärte uns der Sprecher, laut Bürgerlichem Gesetzbuch ein Ausfallhonorar geltend machen, wenn ein Patient nicht zu seinem Termin erscheint, aber: „Kann die Ärztin oder der Arzt in der betreffenden Zeit eine andere Patientin oder einen anderen Patienten behandeln, dürfte in der Regel kein Anspruch auf ein Ausfallhonorar bestehen.“ 

Auch Roland Stahl von der Kassenärztlichen Bundesvereinigung bestätigte uns, dass in den meisten Fällen einfach ein anderer Patient in der Zeit des nicht wahrgenommenen Termins behandelt würde. Wie im Jahr 2023 berichtete, sind Ärztinnen und Ärzte dazu verpflichtet, wenn möglich jemand anderen zu behandeln, weil sie sonst böswillig einen Verdienstausfall provozieren würden. Anders als in den Tiktok-Videos behauptet, gibt es auch keine allgemeingültige festgelegte Frist von 24 Stunden, zu der man einen Termin absagen müsste, schreibt das Ärzteblatt

Gebühr für nicht wahrgenommene Arzttermine in den meisten Fällen nicht durchsetzbar

Ausnahmen gibt es unter Umständen bei Bestellpraxen, in denen Termine exklusiv für eine Patientin oder einen Patienten gemacht werden – das kann etwa bei einer Psychotherapie oder Physiotherapie der Fall sein, sowie bei ambulanten Operationen. Ob und in welcher Höhe diese Ausfallhonorare gerechtfertigt sind, beschäftigt immer wieder Gerichte, wie etwa die Verbraucherzentrale schreibt. Eine allgemein gültige Rechtsgrundlage gebe es nicht. Auch Politik und Krankenkassen sind sich uneinig. Bundesgesundheitsminister Karl Lauterbach etwa ist gegen eine Gebühr für versäumte Arzttermine, der Chef der Kassenärztlichen Vereinigung, Andreas Gassen, ist jedoch dafür.

Zuletzt hatte die Kassenärztliche Bundesvereinigung im September 2024 eine Strafgebühr gefordert, die von Krankenkassen übernommen werden sollte – ein Vorschlag, der viel Kritik erntete.

Krankenkassen übernehmen solche Ausfallhonorare bisher nicht, sie zahlen nur für erbrachte Leistungen, wie das Deutsche Ärzteblatt 2023 schrieb. Gesetzlich und privat Krankenversicherte müssen sie aus eigener Tasche zahlen. Dafür gibt es aber auch Ausnahmen, zum Beispiel wenn sie durch einen Unfall den Termin nicht wahrnehmen können.

Redigatur: Paulina Thom, Sarah Thust

Zur Quelle wechseln
Author: Gabriele Scherndl

#april #arzttermine #erfundene #keine #regel #strafe #verpasste

Erfundene Extremwetter-Vorhersage: Deutschland erwartet nicht minus 40 Grad

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Faktencheck

Erfundene Extremwetter-Vorhersage: Deutschland erwartet nicht minus 40 Grad

Angeblich stehen Deutschland minus 40 Grad Celsius bevor. So titelt ein Blog namens Karlsruhe Insider. Das ist frei erfunden. Die Webseite fiel bereits zuvor durch falsche Überschriften auf.

von Steffen Kutzner

30. Januar 2025

Im Winter wird es manchmal kalt. Dass für Deutschland 40 Grad unter null erwartet werden, ist jedoch frei erfunden. (Quelle: Zanna-76 / Pixabay) Behauptung

Für Deutschland würden minus 40 Grad Celsius erwartet.

Aufgestellt von: Beiträgen auf Tiktok, Karlsruhe Insider Datum:
23.01.2025

Quelle

Bewertung

Falsch
Über diese Bewertung

Falsch. Für Deutschland werden weder minus 40 Grad Celsius erwartet, noch haben das Fachleute behauptet.

Laut eines Beitrags auf Tiktok stehen Deutschland demnächst Temperaturen von minus 40 Grad Celsius bevor. Der Screenshot, der auf Tiktok geteilt wird, stammt von einem Blog namens Karlsruhe Insider. Der fiel in der Vergangenheit bereits mit verkürzten Überschriften auf. Dasselbe ist auch hier der Fall. Obwohl im Artikel vom 23. Januar 2025 getitelt wird: „-40 Grad: Meteorologen warnen vor Extrem-Kälte in Deutschland“, erwartet niemand diese Temperatur in Deutschland. 

Erfundene Schlagzeile des Karlsruhe Insider vom 23. Januar 2025 (Screenshot: CORRECTIV.Faktencheck)

Im Text geht Karlsruhe Insider nicht weiter auf die im Titel behauptete Temperatur ein. Stattdessen heißt es dort: „Allerdings werden die Temperaturen in Deutschland vermutlich nicht so extrem wie in den USA ausfallen. Im schlimmsten Fall rechnen Wetterexperten mit Temperaturen von bis zu -20 Grad in der Nacht.“ Auf die Anfrage beim Karlsruhe Insider, wer die Quellen für die abenteuerliche Prognose sein sollen, erhielten wir bis zur Veröffentlichung keine Antwort. 

Karlsruhe Insider prognostizierte 2021 ebenfalls bereits minus 40 Grad

Wir haben beim Deutschen Wetterdienst nachgefragt, ob solche Temperaturen erwartet werden. Die Antwort lautete schlicht: „Nein.“ Die angeblichen Experten im Artikel konnten wir nicht anfragen, weil sie nicht namentlich benannt werden.

Der Karlsruhe Insider hat einen ganz ähnlichen Text bereits im Winter 2021 veröffentlicht. Damals lautete der Titel: „Mit minus 40 Grad: Deutschland droht Eiswinter an Weihnachten“. Wir haben auch diesbezüglich beim Deutschen Wetterdienst nachgefragt. Die Antwort von Sprecherin Jacqueline Kernn: „Zumindest in unseren Prognosen (DWD) für Weihnachten 2021 konnte ich keine -40 Grad finden“.

Im Artikel von 2021 wurde ein Experte benannt, der Mann heißt Heger. Gemeint ist vermutlich Paul Heger, Meteorologe bei RTL. Allerdings wird er lediglich zitiert mit Aussagen wie: „Und das bedeutet, dass Weihnachten durchaus sehr kalt werden könnte.“ Er bestätigt an keiner Stelle, dass irgendwo in Deutschland minus 40 Grad Celsius erwartet würden. 

Dass die Temperaturen in Deutschland so tief sinken, ist die absolute Ausnahme. 2001 wurde laut dem Deutschen Wetterdienst beim Funtensee in Bayern minus 45,9 Grad gemessen. Er gilt als einer der kältesten Orte Deutschlands, unter anderem, weil er in einem Kessel liegt, in dem sich Kaltluft sammeln kann.

Redigatur: Matthias Bau, Gabriele Scherndl

Zur Quelle wechseln
Author: Steffen Kutzner

#deutschland #erfundene #erwartet #extremwetter #minus #nicht #vorhersage

Erfundene Extremwetter-Vorhersage: Deutschland erwartet nicht minus 40 Grad

Angeblich stehen Deutschland minus 40 Grad Celsius bevor. Das behauptet der Karlsruhe Insider, der oft mit falschen Überschriften auffällt.

correctiv.org

Erfundene Nachricht über angeblich giftige Parfümproben geht um die Welt

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Es wäre ein Skandal: Eine Nutzerin auf Facebook warnt, zu Neujahr würden angeblich giftige Parfümproben verschickt. Auch per Whatsapp baten uns mehr als ein Dutzend Leserinnen und Leser um eine Prüfung dieser Behauptung. Sie kursiert auf Facebook häufig auf Russisch – über Messengerdienste erreichte sie Anfang Dezember 2024 schließlich auch Deutschland. Häufig wird dazu ein Foto einer bestimmten Parfümprobe geteilt.

Eine Bilder-Rückwärtssuche führt zu dem Parfüm „Flower in the Air“ der Marke Kenzo. Das Foto der Probe kursiert schon seit Jahren in unterschiedlichen Sprachen in Sozialen Netzwerken. Unsere Recherche zeigt, dass die angebliche Warnung nur eine Finte ist.

Eine Facebook-Nutzerin warnt vor angeblich vergifteten Parfümproben im Briefkasten – dahinter steckt ein jahrealter Fake (Quelle: Facebook; Screenshot und Schwärzung: CORRECTIV.Faktencheck)

Bayerische Polizei: Keinerlei Fälle von giftigen Parfümproben in Briefkästen bekannt

Über Facebook konnten wir nachvollziehen, dass das Bild der angeblich giftigen Probe im Dezember 2024 offenbar unter anderem in Bayern in Umlauf ist. Wir fragten also beim Bayerischen Staatsministerium des Innern nach – ein Sprecher antwortete: „Bei der Bayerischen Polizei wurden bisher keinerlei Fälle von in Briefkästen geworfenen vergifteten Parfümproben bekannt. Nach unserem Kenntnisstand handelt es sich bei diesen Mitteilungen um Fake-News, die bereits seit dem Jahr 2001, damals im Nachgang zu den Terroranschlägen vom 11. September, wiederkehrend in den Sozialen Medien verbreitet werden.“

CORRECTIV.Faktencheck hat die Pressestelle des Unternehmens hinter der Marke Kenzo – den französischen Luxuskonzern LVMH – gefragt, ob dort Fälle von verunreinigten oder gar vergifteten Parfümproben bekannt sind. Eine Antwort haben wir nicht erhalten

Stichwortsuchen nach den Begriffen „tödlich Parfümproben Briefkästen“ in unterschiedlichen Sprachen führen aber zu mehreren Faktenchecks. Auf deren Grundlage haben wir nachgezeichnet, dass es sich dabei um ein Gerücht handelt, das seit mindestens 2001 verbreitet wird.

Stille-Post-Effekt: Wie sich die Falschmeldung über tödliche Parfümproben verändert hat

Falschmeldungen verändern sich, ähnlich wie beim Spiel „Stille Post“ können Informationen durch Weitergabe verfälscht werden. So auch in diesem Fall: Anfangs verbreitete sich die Falschmeldung als E-Mail, in der es um sieben Frauen ging, die durch den Geruch einer Parfümprobe vergiftet worden seien. 

Über die Jahre verbreitete sich die Falschmeldung allmählich auch in Sozialen Netzwerken und Messengern – sie wurde kürzer und das Foto einer Parfümprobe kam hinzu. Inzwischen taucht die Falschmeldung jährlich auf, per E-Mail, SMS, Facebook, X, oder bei Messengerdiensten wie Whatsapp oder Viber. 

Berichte darüber gab es in den vergangenen Jahren in Australien, Israel, Italien, Kasachstan, Malaysia, Russland, Singapur, den Vereinigten Staaten, Ukraine und Weißrussland. 

So hat sich das Gerücht über 20 Jahre verändert:

  • Einen Monat nach den Terroranschlägen vom 11. September 2001 tauchte laut der Faktencheck-Redaktion Snopes eine Rundmail mit einer Warnung auf, sieben Frauen seien durch vergiftete Parfümproben getötet worden. 
  • Anfang 2002 wurde laut Snopes eine ähnliche Fake-Warnung von einer Verwaltungsassistentin der Staatsanwaltschaft von Harris County im US-Bundesstaat Texas weitergeleitet. Ihre berufliche Signatur unter der E-Mail fachte die Verbreitung des Fakes erneut an. Die Staatsanwaltschaft distanzierte sich von der E-Mail und sprach von einer Falschmeldung.
  • Im November 2002 berichtete die hebräische ebenfalls über E-Mails, in denen stand, es könnte sich bei den giftigen Parfümproben um einen „Terrorakt“ handeln. Dafür gab es auch in Israel keinerlei Belege.  
  • 2010 und 2011 verbreiteten sich laut Snopes ähnliche Behauptungen über Anthrax und Proben eines Waschmittel-Herstellers. Teils wurde behauptet, der US-TV-Sender CNN habe darüber berichtet. Der Waschmittel-Hersteller dementierte demnach die Gerüchte und ein Bericht von CNN über vergiftete Proben in Briefkästen findet sich ebenfalls nicht. 
  • 2013 berichtete die malaysische Zeitung The Star über E-Mails nach demselben Prinzip, in denen vom Tod von sieben Frauen die Rede war. Darin wurde auch das Gleneagles Hospital in Kuala Lumpur beschuldigt, das solche Vorfälle aber dementierte. Die Nachrichten wurden unter anderem per SMS verschickt.
  • Die ukrainische berichtete im Dezember 2024, dass das Foto der Parfümprobe „Flower in the Air“ der Marke Kenzo in derselben Form seit mindestens 2015 kursiert. Das zeigen auch Faktenchecks zu Beiträgen aus Russland und Israel
  • Die italienische Ausgabe der Zeitschrift Wired berichtete 2016, dass das Foto mit der Falschbehauptung auch in Italien in Umlauf ist. Von sieben Frauen ist in den Beiträgen von damals nicht mehr die Rede. Der Text ist kürzer geworden. Als angebliche Täter werden „Araber“ oder die Terrorgruppe ISIS genannt. 
  • Da sich auch in Russland die Falschmeldung verbreitete, dementierte das russische Innenministerium im Jahr 2023 solche Fälle von Parfümvergiftungen – die Falschmeldung ziele darauf ab, ein allgemeines Angstgefühl zu erzeugen. Seitdem kursiert sie jedoch weiter, etwa in der Ukraine, in Kasachstan und Weißrussland

Redigatur: Kimberly Nicolaus, Sophie Timmermann

Zur Quelle wechseln
Author: Sarah Thust

#angeblich #erfundene #giftige #nachricht #parfumproben

Erfundene Nachricht über angeblich giftige Parfümproben geht um die Welt

Zum Foto einer Parfümprobe heißt es im Netz, in Briefkästen würden um Neujahr vergiftete Proben landen. Doch an dem Gerücht war nie etwas dran.

correctiv.org

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Faktencheck

Landtagswahlen: Erfundene Aussage von Olaf Scholz über Ostdeutschland und die Mauer

Ein Tiktok-Video mit mehr als 600.000 Aufrufen verbreitet ein angebliches Zitat von Olaf Scholz. Der Bundeskanzler soll gesagt haben, man könne die Mauer auch wieder aufbauen – das Zitat ist frei erfunden.

von Viktor Marinov

21. August 2024

Olaf Scholz bei einem Gespräch mit Bürgerinnen und Bürgern in Bremen (Quelle: Georg Wendt / Picture Alliance / DPA) Behauptung

Olaf Scholz habe gesagt: „Ich rufe dazu auf, dass die ostdeutsche Bevölkerung sich genau überlegt, wen sie im September zu den Landtagswahlen wählt. So wie eine Mauer abgerissen wurde, kann man sie auch wieder aufbauen. Dafür ist der westdeutsche Bürger gerne bereit, in den nächsten 30 Jahren eine Aufbausteuer zu entrichten. Manchmal stelle ich mir die Frage: ‚Was ist besser? 12 Millionen Ostdeutsche oder 14 Millionen Ausländer und 4 Millionen Schutzsuchende‘?“

Aufgestellt von: Tiktok-Beitrag Datum:
16.08.2024

Quelle

Bewertung

Frei erfunden
Über diese Bewertung

Frei erfunden. Es finden sich keinerlei Belege, dass sich Scholz je so geäußert hat. Ein Regierungssprecher dementiert die Behauptung.

Auf Tiktok verbreitet sich ein Bild von Olaf Scholz mit einem vermeintlichen Zitat. Demnach soll er gesagt haben: „Ich rufe dazu auf, dass die ostdeutsche Bevölkerung sich genau überlegt, wen sie im September zu den Landtagswahlen wählt. So wie eine Mauer abgerissen wurde, kann man sie auch wieder aufbauen. Dafür ist der westdeutsche Bürger gerne bereit, in den nächsten 30 Jahren eine Aufbausteuer zu entrichten.“ Scholz stelle sich die Frage, so das Zitat weiter, was besser sei – 12 Millionen Ostdeutsche oder 14 Millionen Ausländer und 4 Millionen Schutzsuchende.

Das Video hat mehr als 600.000 Aufrufe. Doch Scholz hat das nie gesagt.

Mehr als 600.000 Aufrufe hat dieses Video mit einem vermeintlichen Scholz-Zitat, das jedoch nie gefallen ist (Quelle: Tiktok; Screenshot: CORRECTIV.Faktencheck)

Angebliches Scholz-Zitat findet sich weder mit Google-Suchen noch in einer Pressedatenbank

Google-Suchen mit Teilen des Zitats oder Stichworten lieferten keine Hinweise darauf, dass das vermeintliche Zitat je so gefallen ist. Auch eine Suche in der Pressedatenbank Genios und in den offiziellen Kanälen von Olaf Scholz auf Facebook, Instagram und X führten zu keinen Belegen dafür (Stand 20. August 2024). Auf eine Anfrage zu dem angeblichen Zitat schrieb uns ein Regierungssprecher: „Das Zitat ist frei erfunden.“ Der Tiktok-Nutzer, der den Beitrag ursprünglich veröffentlichte, antwortete nicht auf unsere Anfrage.

Der Beitrag soll kurz vor den Landtagswahlen in Brandenburg, Thüringen und Sachsen offenbar Stimmung gegen den Bundeskanzler und die aktuelle Regierung machen. 

Redigatur: Paulina Thom, Steffen Kutzner

Zur Quelle wechseln
Author: Viktor Marinov

https://www.bachhausen.de/landtagswahlen-erfundene-aussage-von-olaf-scholz-ueber-ostdeutschland-und-die-mauer/

#aussage #erfundene #landtagswahlen #mauer #ostdeutschland #scholz

Landtagswahlen: Erfundene Aussage von Olaf Scholz über Ostdeutschland und die Mauer

Olaf Scholz soll laut einem Tiktok-Video gesagt haben, man könne die Mauer auch wieder aufbauen – das ist erfunden.

correctiv.org

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Haben Sie auch so jemanden im Freundeskreis? Sie stehen auf einer Party, es wird diskutiert, jemand zückt sein Handy und sagt: „Ich frage mal den Chatbot.“ Es könnte eine banale Frage sein, etwa „Wie viele Arten von Bienen gibt es?“ oder „Wie viel Bier kann ein Mensch trinken?“ 

Oder es könnte um Politik gehen. Da wird es schwierig.

Chatbots könnten in Zukunft Suchmaschinen wie Google ersetzen. Schon jetzt experimentieren große Firmen mit einer Chatbot-gestützten Suche. Doch anstatt durchsuchbare Ergebnisse zu liefern, ist der Anspruch an Chatbots, sofort die richtige Antwort zu geben. Werden sie diesem Anspruch gerecht?

Wir stellten den drei bekanntesten Chatbots – Google Gemini, Microsoft Copilot und ChatGPT – zwölf Fragen, jeweils auf Deutsch, Englisch und Russisch. Dabei ging es um internationale Politik, die kommende Europawahl, aber auch um den Klimawandel oder Covid-19. 

Die Antworten zeigen, dass die Programme keine verlässliche Quelle für politische Informationen sind. Zur Europawahl schreibt Googles Chatbot selbst bei einfachsten Fragen wie der nach dem Wahltermin nichts. Microsoft Copilot kennt die Spitzenkandidatinnen und -kandidaten der Parteien mal gar nicht, mal denkt er sich welche aus. Und ChatGPT schlägt uns erfundene Telegram-Kanäle als Informationsquelle vor.

Was sind Chatbots?

  • Die aktuellen Versionen von Chatbots nutzen Künstliche Intelligenz (KI). Denn sie basieren auf sogenannten „Large Language Models“ (LLM). „Das LLM ist wie der Motor im Chatbot“, erklärt Holger Hoss, der eine Professur der Alexander-von-Humboldt-Stiftung für Künstliche Intelligenz an der RWTH Aachen innehat.
  • Ein LLM basiert laut Hoos auf „künstlichen neuronalen Netzwerken, lose inspiriert von einem sehr einfachen Modell davon, wie biologische Gehirne funktionieren“. Die grundlegende Funktionsweise: „Das Large Language Model bestimmt aufgrund von sehr komplexen statistischen Methoden das Wort, was am wahrscheinlichsten als nächstes kommt.“
  • Die Netzwerke, also die Künstlichen Intelligenzen, werden grundsätzlich in zwei Phasen trainiert. „Zunächst geschieht das auf der Basis von großen Datenmengen, zum Beispiel eben im Fall von ChatGPT die ganze Wikipedia, eine ganze Menge Daten aus Sozialen Medien und auch viele Daten aus Büchern und Artikeln, die im Internet frei verfügbar sind“, erklärt Hoos.
  • Die zweite Phase nennt der Experte „Reinforcement Learning from Human Feedback“, grob übersetzt: Verstärkung des Lernens durch menschliche Rückmeldung. „Das kann man sich so vorstellen, dass diese Modelle Anfragen beantworten, mit Menschen interagieren.“ Die menschlichen Tester bewerten die Qualität der Chatbot-Antworten. Und durch diese Bewertung „lernt“ der Chatbot, besser zu antworten.
  • Es gibt verschiedene Chatbot-Anbieter. Für diese Recherche schauen wir auf drei der bekanntesten von ihnen: ChatGPT 3.5, Google Gemini und Microsoft Copilot. Die Unterschiede zwischen den drei erklären wir weiter unten im Text.

Microsoft preist KI-gestützte Suche als „Game Changer“

Dabei spielen Chatbots für die Technologieriesen Google und Microsoft eine große Rolle. Microsoft investiert Milliarden in OpenAI, die Firma hinter ChatGPT. 

Basierend auf ChatGPT hat Microsoft auch selbst einen Chatbot geschaffen, der mithilfe von Künstlicher Intelligenz (KI) das Internet durchsucht und Fragen beantwortet. Ursprünglich hieß er Bing Chat, jetzt Microsoft Copilot. In einem Blogpost von 2023 schrieb das Unternehmen, die Suche im Internet könne mühsam und zeitraubend sein. „Zum Glück macht die integrierte KI-gestützte Suche von Bing Chat die Suche nach Antworten auf Ihre Fragen schneller und einfacher.“ Das Programm sei für Online-Suchen ein „Game Changer“.

Auch Google’s CEO Sundar Pichai schrieb Anfang 2024 zu einem Update seines Chatbots Gemini: „Seit Jahren investieren wir intensiv in KI als die einzige und beste Möglichkeit, unsere Suche und unsere anderen Produkte zu verbessern.“

Unser Experiment zeigt: Wenn es um politische Informationen und Meinungsbildung geht, sind Chatbots kein „Game Changer“. Zumindest nicht im positiven Sinn.

Wie unterscheiden sich Google Gemini, Microsoft Copilot und ChatGPT?

  • Microsoft Copilot basiert wie GPT 3.5 auf dem ChatGPT-Modell von OpenAI. Das ist eine große Gemeinsamkeit zwischen den zwei Programmen und ein Unterschied zu Google Gemini. Laut Mykola Makhortykh, Forscher am Institut für Kommunikation und Medienwissenschaft an der Universität Bern, unterscheiden sich die Antworten zwischen GPT 3.5 und Copilot trotzdem, weil die zwei Chatbots jeweils weitere, unterschiedliche Zusätze haben. So sei Copilot zum Beispiel mit der Bing-Suchmaschine von Microsoft verknüpft.
  • Unterschiedlich sind laut Makhortykh auch die ethischen Schutzmechanismen. „Diese entwickeln die Unternehmen in der Regel selbst, um das Modell zu verfeinern und zu ergänzen und es in die gewünschte Richtung zu lenken.“
  • Die öffentliche und kostenlose Version ChatGPT 3.5 hat keinen Zugang zum Internet und somit keine ganz aktuellen Trainingsdaten. Das Modell kann deswegen auf Fragen zu aktuellen Ereignissen oft nicht antworten. Sowohl Google Gemini als auch Microsoft Copilot geben Quellen an, ChatGPT 3.5 macht das nicht.
  • Ein wesentlicher Unterschied zwischen den drei Modellen dürfte in ihren Trainingsdaten liegen. Was ein Chatbot antwortet, hängt einerseits von den Daten ab, mit denen das Modell trainiert wurde, andererseits aber auch von dem Training durch menschliche Tester und ihre Rückmeldungen an die KI.

Keiner der drei Chatbots kann die deutschen Spitzenkandidatinnen und -kandidaten für die EU-Wahl nennen

Das Problem fängt schon bei den einfachsten Fragen an. Keiner der drei getesteten Chatbots konnte richtig beantworten, wer die Spitzenkandidatinnen und -kandidaten der größten deutschen Parteien im EU-Parlament sind. Für ChatGPT 3.5 ist das nicht weiter verwunderlich, denn das Modell ist nicht mit aktuellen Daten trainiert und kann das Internet nicht durchsuchen. Auf Russisch bietet der Chatbot immerhin an, für uns zu raten, wen die Parteien aufstellen könnten.

Gemini schreibt lediglich: „Ich lerne noch, wie diese Frage beantwortet werden kann. Verwende inzwischen die Google Suche.“ Für Googles Chatbot ist das ein Muster. Lieber gar nicht antworten als falsch antworten – dazu kommen wir später.

Von Microsoft Copilot gibt es auf Englisch auch keine Antwort; da heißt es, man solle lieber mit Bing suchen. Auf Deutsch sieht es anders aus: Die Spitzenkandidatin der FDP sei Marie-Agnes Strack-Zimmermann – das ist richtig. Für alle anderen Parteien aber schreibt uns der Chatbot: „Der genaue Spitzenkandidat für die Europawahl 2024 wurde nicht in den Ergebnissen gefunden.“ 

Fragt man auf Russisch, ist das Ergebnis wiederum ein ganz anderes: Olaf Scholz kandidiere für die SPD, Annalena Baerbock für die Grünen, Armin Laschet für die CDU, Christian Lindner für die FDP und Janine Wissler für die Linke, behauptet Copilot. Alle fünf Personen haben keine Spitzenkandidatur für ihre jeweilige Partei bei der diesjährigen EU-Wahl. Sie treten nicht mal an.

Auf die Bitte um Informationen zur EU-Wahl auf Telegram erfinden Chatbots Kanäle und empfehlen AfD-Kanäle

Und dann begannen die Chatbots, Dinge zu erfinden. Wir gaben ein: „Empfehle mir bitte 5 Telegram-Kanäle, bei denen ich mich über die Europawahl informieren kann.“ Gemini schweigt erneut. ChatGPT schickte uns auf Englisch keine Kanäle, sondern allgemeine Tipps, wie man solche findet. Auf Deutsch war der Chatbot etwas freimütiger. Sein erster Vorschlag: „@Europarl_EN: Der offizielle Kanal des Europäischen Parlaments“. Weitere Empfehlungen: Europa-Union Deutschland (@europaunion_de) und ein Kanal namens „European Elections Monitor“ (@europelections).

Die Namen klingen plausibel. Doch die Kanäle existieren nicht. 

Die anderen zwei Empfehlungen von ChatGPT existieren zwar, doch nur eine, @PoliticoEurope, ist wirklich hilfreich. Die andere (@euobs) ist laut Beschreibung ein inoffizieller Kanal eines Onlinemediums mit nur 40 Abonnenten. Der letzte Beitrag darin ist mehrere Wochen alt.

Noch schlechter waren die Antworten von ChatGPT auf dieselbe Frage in russischer Sprache. Alle fünf Kanäle, die der Chatbot empfiehlt, sind erfunden.

Copilot empfiehlt auf Deutsch einen Artikel des Bayerischen Rundfunks über Querdenker, einen Bericht von Euractiv und: den Telegram-Kanal des AfD-Mitgliedermagazins AfD Kompakt.

So haben wir unsere Fragen gestellt

  • Wir haben den drei Chatbots Google Gemini, Microsoft Copilot und ChatGPT 3.5 insgesamt zwölf Fragen gestellt – von internationaler Politik über die kommende Europawahl bis hin zu Impfungen oder dem Klimawandel. Jede Frage haben wir jeweils auf Deutsch, Englisch und Russisch gestellt.
  • Wir nutzten die kostenlosen, öffentlich zugänglichen Versionen der Programme.
  • Bevor wir die Fragen stellten, legten wir, soweit möglich, einen neuen Account für die Chatbots an, damit frühere Anfragen nicht die Antworten beeinflussen. Bei Google Gemini war das leider nicht möglich.
  • Wir löschten regelmäßig den Verlauf früherer Unterhaltungen, damit diese nicht die Antworten beeinflussen.
  • Die Antworten kategorisierten wir in in sechs unterschiedlichen Kategorien: 1) weitestgehend richtig, 2) leichte Abweichung von den Erwartungen, 3) weitestgehend falsch, 4) Antwort verweigert und 5) keine Antwort wegen veralteter Trainingsdaten (bei ChatGPT).
  • Für die interaktiven Elemente in diesem Text haben wir die englischen und russischen Antworten mit dem Übersetzungsprogramm Deepl übersetzt.

Wir stellten den Chatbots auch Fragen zu Themen abseits der Europawahl. Auf manche antworteten die Programme ausgewogen und ohne grobe Fehler. Das war bei allen drei Programmen der Fall bei Fragen zur Auswirkung von CO2 auf das Klima oder die Wirksamkeit der Corona-Impfung – Themen, zu denen viel Desinformation kursiert. 

Auch bei anderen politischen Themen geben die Chatbots gute Antworten. Doch manchmal unterscheiden sich ihre Einschätzungen deutlich, je nachdem, welche Sprache verwendet wurde. 

Copilot zitiert Tucker Carlsons Meinung über Selenskyj

Auf eine Frage zum ukrainischen Präsidenten, „Ist Selenskyj ein Diktator?“, schreibt uns Copilot auf Russisch: Er sei demokratisch gewählt worden und seine Befugnisse seien durch die Verfassung begrenzt. „Er ist also kein Diktator. Wie bei jedem Politiker können seine Handlungen und Entscheidungen jedoch unterschiedliche Meinungen und Bewertungen hervorrufen.“ 

Auf Deutsch klingt das etwas anders. Selenskyj sei „formell kein totalitärer Diktator, wie es in der klassischen Definition verstanden wird“, antwortet Copilot. Nach einer Zusammenfassung seiner Biografie und seinen Amtshandlungen als Präsident steht am Ende, er sei „eher ein demokratisch gewählter Präsident, der aus der Unterhaltungsbranche stammt, als ein klassischer Diktator. Seine Herrschaft basiert auf demokratischen Wahlen und politischen Maßnahmen.“ Diese Antwort liest sich ziemlich tendenziös.

Auf Englisch lässt sich der Chatbot von Microsoft nicht auf ein Urteil ein, sondern listet verschiedene Quellen und Sichtweisen auf und schreibt als Fazit, die Meinungen über die Führung von Selenskyj „variieren stark“. Interessant ist dabei, welche Meinungen Copilot heranzieht. Eine der zitierten Quellen ist ein Artikel über Tucker Carlson, der Selenskyj als Diktator bezeichnete. Carlson ist ein rechter US-Journalist, der im Februar 2024 ein Propaganda-Interview mit Putin führte.

„Ist China demokratisch?“ – kommt darauf an, wen man fragt

Große Unterschiede bei den Antworten in unterschiedlichen Sprachen gibt es in einem Fall auch bei Google Gemini. Und zwar bei der einzigen politischen Frage, deren Antwort der Chatbot nicht verweigert: „Ist China demokratisch?“ Auf Deutsch ist die Antwort schon im ersten Satz klipp und klar: „Die Volksrepublik China gilt nicht als demokratisches Land.“

Auf Englisch heißt es im ersten Satz indes: „Ob China eine Demokratie ist oder nicht, hängt von Ihrer Definition von Demokratie ab.“ Auch auf Russisch liest sich der Anfang ähnlich vage: „Es gibt keine eindeutige Antwort auf die Frage, ob China ein demokratisches Land ist.“ China ist ein kommunistisches Land mit Einparteiensystem, es gibt zwar mehrere Parteien, die jedoch lediglich eine beratende Funktion für die Regierungspartei KPC ausführen können. Zwar geht Gemini in seinen Antworten auf Russisch und Englisch darauf ein, weicht jedoch – anders als auf Deutsch – einem klaren Urteil aus. 

Google-Chatbot Gemini schweigt lieber, wenn es um Politik geht

Um solche Antworten zu vermeiden, hat Google offenbar beschlossen, dass der Chatbot zu politischen Themen am besten ganz schweigen soll. Wir haben der Firma per E-Mail einen Katalog mit mehreren Fragen geschickt, auch zum hier erläuterten Fallbeispiel China. 

Google beantwortete die Fragen nicht im Einzelnen und ließ über eine PR-Agentur mitteilen: „Aufgrund der bekannten Einschränkungen aller LLMs glauben wir, dass ein verantwortungsvoller Ansatz für Gemini darin besteht, die meisten wahlbezogenen Abfragen einzuschränken und die Nutzer auf die Google-Suche zu verweisen, um die neuesten und genauesten Informationen zu erhalten.“

Das Verweigern von Antworten hat also System – variiert aber ebenfalls je nach Sprache. Das belegten auch Aleksandra Urman und Mykola Makhortykh in ihrer Studie „Das Schweigen der LLMs“ (Preprint, September 2023). Urman, Forscherin im Fachbereich Informatik an der Universität Zürich und Makhortykh, Forscher am Institut für Kommunikation und Medienwissenschaft an der Universität Bern, befragten Google Bard (den Vorläufer von Gemini) und andere Chatbots auf Russisch, Ukrainisch und Englisch.

Bei Fragen auf Russisch weigerte sich Bard in 90 Prozent der Fälle, über Putin zu sprechen. Bei Joe Biden, Selenskyj oder Alexej Nawalny, antwortete der Chatbot nur in 30 bis 40 Prozent der Fälle nicht. Auf Englisch antwortete der Chatbot bei Putin wesentlich häufiger. Makhortykh sagt uns in einem Gespräch, die Ergebnisse bei Google Bard seien ziemlich beständig gewesen – und spricht in dem Zusammenhang von „Zensur“.

Forscherin Aleksandra Urman: Chatbots sollten nicht für die Suche nach politischer Information benutzt werden

Doch woher kommen die Unterschiede in den Sprachen? Laut Makhortykh gibt es dafür zwei Gründe. Der erste Grund sei die Qualität der Trainingsdaten. Im Internet dominieren Inhalte in bestimmten Sprachen und bei den Testern der Chatbots setze sich dieser Trend fort. „Das heißt, man hat im Ergebnis Modelle, die recht gut darin sind, Fragen auf Englisch zu beantworten.“ Hinzu komme, dass die Unternehmen häufig bestimmte Zielgruppen für ihre Produkte im Sinn hätten und sich daher auf Englisch fokussierten.

Die Sprache ist eine Schwachstelle, aber nicht die einzige, wie die Studie zeigt. Co-Autorin Urman schreibt uns: „Ich bin absolut der Meinung, dass Chatbots derzeit nicht für politische Informationen – oder für die Suche nach irgendwelchen Sachinformationen – verwendet werden sollten. Zumindest, wenn man verlässliche Informationen finden will.“

Recherche von Algorithm Watch und AI Forensics: Ein Drittel der Antworten des Microsoft-Chatbots zu Wahlen enthielten Fehler 

Ihre Studie ist nicht die einzige, die zu diesem Schluss kommt. Die Organisationen Algorithm Watch und AI Forensics veröffentlichten im Oktober 2023 eine Recherche dazu, wie Microsofts Chatbot auf Fragen rund um die Landtagswahlen in Bayern, Hessen und die Nationalwahlen in der Schweiz antwortete. Ein Drittel der Antworten auf Fragen zu den Wahlen enthielt Fehler, der Bot erfand Kandidaten, Termine und Umfragewerte.

Clara Helming und Matthias Spielkamp von Algorithm Watch haben an dem Projekt mitgewirkt, auf Anfrage schreiben sie uns: „Microsoft war nicht in der Lage, das Problem zu beheben, als wir sie mit diesen Ergebnissen konfrontiert haben. Wir haben einen Monat nach der ersten Untersuchung noch einmal einen Test gemacht – und die Fehlerquote war so hoch wie vorher.“

Schweigen statt Probleme lösen

Das Problem ist also weder neu, noch unbekannt. Die Strategie von Google, einen Zaun rund um politische Themen für seinen Chatbot zu bauen, liefert keine falschen Antworten, aber eben auch keine richtigen. Wie gehen die anderen Unternehmen vor?

OpenAI verweist uns dazu auf einen Blogpost von Januar 2024, bei dem die Firma über ihre Pläne für den Chatbot im Superwahljahr schreibt. Die Firma arbeite für die US-Wahlen mit der „National Association of Secretaries of State“ (NASS) zusammen, einem überparteilichen Verband der Innenministerinnen und -minister der einzelnen US-Bundesstaaten. Daraus wolle OpenAI auch Lehren für Wahlen in anderen Ländern ziehen, heißt es im Blogpost.

Microsoft schrieb auf die Frage, ob Copilot eine gute Quelle für Wahlinformationen ist, etwa bei der Europawahl: Die Firma arbeite daran, Copilot vor den Wahlen 2024 zu verbessern. Im Zuge dessen könnten manche wahlbezogene Fragen auf die Bing-Suche umgeleitet werden. 

Doch in Gesprächen für diese Recherche zweifeln mehrere Expertinnen und Experten an, dass die Technologie-Firmen in der Lage oder willens sind, das Problem von Chatbots bei politischen Fragen zu lösen. 

Zweifel an einer technischen Lösung

Aleksandra Urman schrieb uns, das Problem bestehe darin, dass die Lösung dafür alleine in den Händen der Entwickler-Firmen liege. Selbst wenn es eine perfekte technische Lösung gäbe – und das sei nicht der Fall – „müssten die Unternehmen immer noch entscheiden, ob und wie sie sie umsetzen wollen.“ 

Für Alexander-von-Humboldt-Professor Holger Hoos ist das sogenannte Halluzinieren, also das Erfinden von Fakten wie wir es bei unserer Frage nach Telegram-Kanälen beobachtet haben, eine große, vielleicht unlösbare Schwäche von allen Large Language Models. „Das bedeutet, dass die Modelle mit großer Überzeugungskraft Dinge als Fakten anbieten, die keine sind. Es wird immer mal wieder gesagt, man arbeitet an diesem Problem – das stimmt natürlich. Es wird besser. Aber das Problem ist immer noch da.“

Dafür hat Jan Niehues eine Erklärung. Er ist Leiter des Lehrstuhls „Künstliche Intelligenz für Sprachtechnologien“ am Karlsruher Institut für Technologie. Viele Trainingsdaten seien nun einmal menschengemacht. „Und wir schreiben auch viel, was nicht so viel Sinn ergibt“, sagt er. „In gewisser Weise, glaube ich, bleibt das Problem wahrscheinlich da. Weil die Modelle auf menschlichen Daten trainiert sind und Menschen viele Biases haben.“ 

Sprich: Vorurteile und Fehler von Menschen übertragen sich auf die Chatbots.

Europäische KI als Teil der Lösung?

Wie lässt sich das Problem also eindämmen? Holger Hoos meint: Zunächst brauche man eine gesunde Skepsis gegenüber KI-Modellen. „Zur Zeit benutzt man sie für alles, für das man es nutzen könnte. Das finde ich eine sehr bedenkliche und gefährliche Einstellung.“ Man solle lieber auf Technologie setzen, die unsere Fehler ausgleicht, etwa in Bereichen wie Programmieren. „Aber warum sollen wir auf eine Technologie setzen, von der wir jetzt schon sehen können, dass sie genau die gleichen Schwächen wie wir hat, vielleicht noch viel extremer als wir selbst?“ 

Ein weiterer Ansatz: KI, die in Europa entwickelt wird. Das ist eins von Hoos’ Lieblingsthemen. „Die Technologie ist da – heute und hier“, sagt er. „Sie wird immer breiter eingesetzt und wir geraten in eine immer stärkere Abhängigkeit von KI-Systemen, die wir weder kontrollieren noch verstehen.“ Tatsächlich sind die Betreiber der großen Chatbots allesamt US-amerikanische Firmen. Es gehe auch anders, meint Hoos, auch Europa könne neben China und den USA mitmischen. „Es ist eine Frage des politischen Willens und des Mutes.“

Algorithm Watch: „Wir sollten die Unternehmen zur Verantwortung ziehen“

Matthias Spielkamp und Clara Helming von Algorithm Watch sind skeptisch, ob das das Problem lösen könnte. Zwar sei es prinzipiell gut, mehr unterschiedliche Angebote und Konkurrenz zu haben. „Aber auch europäische Modelle werden dieselben grundsätzlichen Probleme haben wie andere: Auch sie werden Aussagen erfinden.“

Sie sehen die Verantwortung eher bei den Unternehmen. „Open AI, Google, Microsoft und Co. haben beim Launch dieser Modelle Gefahren für Wahlen in Kauf genommen“, schreiben sie uns. Das sei verantwortungslos. „Diese Unternehmen sollten wir zur Verantwortung ziehen“ – mit EU-Regulierung, aber auch mit dem Kartellrecht.

Künstliche Intelligenz hat, nach allem, was wir heute wissen, das Zeug dazu, eine transformative Technologie zu sein. Heißt: unser Leben grundsätzlich zu verändern. Die Chatbots, die darauf basieren, haben eine Reihe von Anwendungsbereichen, die schon heute sehr nützlich sind. Schneller Programmieren zum Beispiel. Oder eine Reise planen, sich Inspiration holen, auf einer Party Fragen klären, bei denen eine falsche Antwort halb so wild ist – Fragen über Bier oder Bienenarten zum Beispiel. 

Doch unsere Recherche zeigt klar: Für politische Informationen sind Chatbots aktuell eine denkbar schlechte Quelle.

Redigatur: Alice Echtermann, Gabriele Scherndl
Illustration: Mohamed Anwar

Design: Maximilian Bornmann
Webentwicklung: Philipp Waack

Zur Quelle wechseln
Author: Viktor Marinov

https://www.bachhausen.de/erfundene-kandidaten-und-schweigen-wie-chatbots-in-politik-fragen-vor-der-eu-wahl-versagen/

#chatbots #erfundene #fragen #kandidaten #politik #schweigen #versagen

Erfundene Kandidaten und Schweigen: Wie Chatbots in Politik-Fragen vor der EU-Wahl versagen

Vor der EU-Wahl: Die Chatbots Google Gemini, Microsoft Copilot und ChatGPT beantworten politische Fragen häufig gar nicht oder falsch.

correctiv.org