Warum der Sommerinterview-Protest gegen Weidel genial funktioniert hat

1.330

Warum der Sommerinterview-Protest gegen Weidel genial funktioniert hat

von Thomas Laschyk | Juli 21, 2025 | Aktuelles

Gestern lief das ARD-Sommerinterview mit der Faschistin Alice Weidel. Und? Trendet eine der Lügen der Rechtsextremistin Alice Weidel? Diskutieren wir wieder, ob der Faschist Hitler ein „Kommunist“ sein soll oder so etwas? Diskutieren wir, ob es richtig ist, Millionen Menschen aus dem Land zu vertreiben? Nein – wir reden über den lauten, friedlichen Protest gegen sie, der das Gespräch buchstäblich übertönte. Damit war er jetzt bereits erfolgreicher im Kampf gegen rechtsextreme Propaganda, als es jeder pseudo-erlauchte Vorschlag derjenigen ist, die jetzt die Aktion kritisieren. Protest, der nicht stört, ist wirkungslos.

Der öffentlich-rechte Rundfunk sendet rechtsextreme Propaganda

Die Verantwortlichen der ARD haben sich schon wieder geweigert, auf den Stand der Wissenschaft und ihre Noch-Verteidiger zu hören, und haben die gesicherte Rechtsextremistin Alice Weidel ohne Not zum Sommerinterview eingeladen.wissenschaftlich fundiert, dass Interviews mit Extremisten diese stärken. Das sagen Experten seit Jahren. Das kritisiert der Deutsche Journalisten-Verband. „Entzauberung“ durch Frontal-Interviews ist ein Mythos. Irgendwie schadet das ständige Einladen der Rechtsextremisten der AfD doch offenbar auch nicht – im Gegenteil. Der ÖRR bleibt stur und schenkt den Demokratiefeinden von uns bezahlte, beste Sendezeit. Und arbeitet hart daran, neben den indoktrinierten Rechtsextremisten-Wählern auch noch diejenigen zu verlieren, die sie bisher stets verteidigt haben. Ohne erstere zurückzugewinnen, natürlich.

Dennoch durfte diejenige, die die Pressefreiheit der ARD bedroht wie kein anderer, ihre ständigen rechtsextremen Lügen vor laufender Kamera verbreiten. Doch der Plan der ARD für die kostenlose Propaganda-Stunde für Alice Weidel ging nicht auf – dank mutigem, demokratischem und friedlichen Protest: eine laute Demonstration auf der anderen Seite der Spree vom „Zentrum für Politische Schönheit“. Sie dröhnten unter anderem laut ein Lied mit dem Text „Scheiß AfD“ über Lautsprecher.

Weidel beklagte sich mehrfach beim Interviewer Markus Preiß darüber, dass sie ihn nicht richtig verstehen könne. Das sollte schon ein Indiz dafür sein, dass das eine gute Aktion war. Wer gerade trotz seiner verfassungsfeindlichen Ideologie von unseren Rundfunkgebühren bezahlte Sendezeit bekommt, kann sich wirklich nicht darüber beklagen, dass sie ihre Meinungsfreiheit eingeschränkt bekommt. Macht Weidel natürlich trotzdem, aber das sollte niemanden überraschen.

Freiheit ist, Rechtsextreme friedlich zu stören

An einem öffentlichen Raum friedlich zu protestieren, ist nicht nur okay, es ist unser demokratisches Recht. Gegen Alice Weidel, die AfD – und die ARD! – zu protestieren ist nicht nur demokratisch legitim. Erst recht gegen eine gesichert Rechtsextreme. Es war aber auch ein voller Erfolg. Die ARD hat es verbockt, weil sie ohne Not (Nein, sie muss sie nicht einladen!) eine Rechtsextremistin eingeladen hat.  Letztlich liegt die Entscheidungsgewalt, die Programmautonomie, bei den Sendern selbst, die entscheiden, welchen Personen und Parteien sie wie viel Plattform einräumen. Das hat auch das Bundesverfassungsgericht im Jahr 2007 hervorgehoben:

„Die Entscheidung über die zur Erfüllung des Funktionsauftrags als nötig angesehenen Inhalte und Formen des Programms steht den Rundfunkanstalten zu. Eingeschlossen ist grundsätzlich auch die Entscheidung über die benötigte Zeit und damit auch über Anzahl und Umfang der erforderlichen Programme.“

Also die ARD hat sich ganz bewusst dazu entschieden. Und wie das abläuft haben wir schon dutzende Male gesehen: Die Faschisten lügen irgendetwas. Behaupten etwas Menschenverachtendes. Und wir empören uns, die Medien schreiben überall die Lügen ab (, auch wenn sie ihnen widersprechen wollen). Die AfD bekommt Aufmerksamkeit, Reichweite, Opferrolle. Und wieder mehr Legitimation. Den Faktencheck an einer anderen Stelle bekommt niemand mit. Ich habe ein ganzes Buch darüber geschrieben.

Die Tagesschau gibt doch zu, dass etliche Dinge, die Weidel sagte, gelogen waren. Schade, dass nicht die Fakten zur Primetime im Fernsehen liefen und nur die Lügen, nicht? Man kann niemanden „inhaltlich stellen“, der kein Interesse an Inhalten hat. Wir haben es doch gesehen: Selbst wenn eine Moderatorin glasklar live sagt, dass es gelogen ist, sagt Weidel einfach: Nein. Und fällt in die Opferrolle. Apropos.

„Opferrolle hilft der AfD“ rufen hilft der AfD

Die AfD könne sich jetzt als Opfer aufspielen und das würde ihr helfen, heißt es. Was? Die AfD spielt sich als Opfer auf? So wie … pausenlos? Egal, ob angebracht oder nicht? Die AfD wird sich dann auch als Opfer aufspielen, wenn sie an der Macht ist und alles gleichgeschaltet hat. Das macht ihr Vorbild Trump doch auch gerade und so viele Rechtsextremisten vor ihnen. Wer nicht möchte, dass die Faschisten Opfer sind, muss sie Täter werden lassen. Das ist eine defätistische Argumentation. Und sie ist auch falsch. Denn Weidel könnte sich viel besser als Opfer inszenieren, wenn sie in die größten Mikrofone des Landes sagen kann, dass sie ein Opfer sei.

Jede kritische Nachfrage würde ihr dabei helfen. Seid doch nicht so naiv, ihr seht doch, wie die Kommentarspalten aussehen. Gemeine Nachfragen oder die Existenz von Faktenchecks reichen doch schon. Oder will die ARD als Nächstes auch darauf verzichten? Wie viele Jahre wollen wir noch die exakt immer gleichen Fehler machen, bevor wir dazulernen? Wie realitätsverweigernd können die Verantwortlichen noch bleiben? Wenn man wohlwollend Unfähigkeit statt Mutwilligkeit unterstellt. Sie hat schon profitiert, indem sie eingeladen wurde. Das war die Schuld der ARD. Sie hat über Syrer gelogen, über die Klimakrise und vieles mehr. Weidel hat kein Recht darauf, vor Millionenpublikum die Öffentlichkeit anzulügen. Und das Sommerinterview zu protestieren, war nicht nur legitim, es war auch erfolgreich.

Sprechen wir über ihre Lügen? Nein

Was wäre denn die Alternative zu dem lauten Protest beim Sommerinterview gewesen? Nichts tun, zu Hause bleiben? Ohnmächtig auf Bluesky zu posten, dass die ARD einen Fehler macht? Das haben wir jetzt mehrere Jahre versucht und wir werden ignoriert. Muss man erst laut vor der ARD-Zentrale auftauchen, bevor Kritik gehört wird? Angriffe auf Journalisten haben sich mehr als verdoppelt. Wer diesen friedlichen Protest kritisiert, möchte, dass die Meinung einer Faschistin mehr Reichweite bekommt als der Protest der demokratischen Mehrheit. Falsche Neutralität hilft den Tätern. Wer die Demokratie nicht verteidigt, steht auf der Seite ihrer Feinde. Was? Wollen wir etwa, dass die Rechtsextremistin ihre demokratiefeindlichen Lügen deutlich und verständlich hätte äußern dürfen?

Fordern wir hier ernsthaft, dass rechtsextreme Propaganda nicht nur im Prime-TV ausgesendet werden muss, sondern die Lügen auch bitte laut und deutlich, damit sie auch ja jeder versteht? Spürt ihr euch noch? Das Bitterste ist ja, dass die Kritiker keine Alternative bieten außer dem, was die ganze Zeit schon schief läuft. Und naiv glauben, wenn man Rechtsextremisten zum hundertundersten Mal einlädt, dann klappt das dieses Mal bestimmt mit der Entzauberung.

Doch unabhängig vom Abstrakten sieht man doch deutlich, dass der Protest bereits funktioniert hat: Ich muss hier nicht wie jedes Mal, wenn die ARD einen Rechtsextremisten interviewt, einen Faktencheck machen und verzweifelt mit meiner Mini-Reichweite versuchen, die Lüge, die Millionen gehört haben, richtigzustellen. Denn wir sprechen nicht über diese oder jene Lüge der Faschistin Alice Weidel. Sondern über den Protest. Und jetzt ist es auch wieder nicht recht. Seht ihr denn nicht, dass er funktioniert hat? Er hat ihre Lügen aus dem Diskurs verdrängt. Was wollen wir denn mehr? Sie war live und ihre Lügen bekommen keine extra Aufmerksamkeit. Wenn jetzt auch Demokraten aber behaupten, das helfe der AfD, hilft das der AfD.

Die Alternative ist längst bekannt

Und ich bin ja nicht einmal jemand, der fordert, dass die Rechtsextremisten der AfD grundsätzlich nicht interviewt werden dürfen. Auch wenn sicherlich mir das viele unterstellen werden, weil der Diskurs in Social Media ohnehin tot ist, was auch Teil des Grundproblems ist, warum diese Interviews scheitern und Gegenrede und Faktenchecks sinnlos geworden sind. Das Sommerinterview wurde ja vorher aufgezeichnet: Zeit, um den Faktencheck zu machen und an entsprechender Stelle dann live im TV einzublenden. Weil die ARD das vor der Wahl in der Wahlarena nicht hinbekommen hat, haben wir das einmal selbst in die Hand genommen und mit dem gesamten Team 24 h fast pausenlos recherchiert:


Man könnte gemeinsam mit einem Experten die Ausschnitte diskutieren, vorher zu den entscheidenden Debattenpunkten Fakten einblenden, damit Zuschauer vorher wissen, was wahr ist. Man könnte in Ruhe verfassungsfeindliche oder falsche Aussagen einordnen. Dann hätte Alice Weidel ihr Interview – und nicht die Wirkkraft für ihre Propaganda. Dann wird sie natürlich auch meckern und jammern, aber wir haben doch schon etabliert, dass sie das IMMER tut. Aber nein, es gibt Watchparty auf Twitch mit einer Führerin einer Partei, die vom Verfassungsschutz als gesichert rechtsextrem eingestuft wird.

Kann man übrigens mit allen Parteien machen, spricht natürlich nichts dagegen. Und wer meint, das ist zu aufwendig oder nicht verhältnismäßig: Dann dürft ihr eine Rechtsextremistin halt nicht einladen!

Protest, der nicht stört, ist wirkungslos

Die Idee ist doch nicht neu. Fordern wir seit Jahren, haben wir sogar einmal selbst vorgemacht. Worauf wartet ihr? Die ARD möchte aus „der Sendung Schlüsse ziehen und in Zukunft Vorkehrungen treffen“. Den Protest plant man auszublenden – aber nicht die rechtsextreme Propaganda? Warum will man nicht das Format endlich reformieren, anstatt Kritik daran zu unterdrücken?

Wenn die ARD sich weigert, aus ihren Fehlern zu lernen und wenn jetzt auch friedlicher und vor allem: effektiver Protest kritisiert wird, dann wissen wir, warum der Rechtsruck unaufhaltsam weitergeht: Weil unser mediales System und vor allem der ÖRR vollkommen unfähig ist, sich anzupassen. Und stur Kurs hält. Auf AfD-Machtergreifung. Darauf, dass die Rechtsextremisten die ARD abschalten? Pläne, die sie jetzt schon haben. Die ARD sägt nicht nur an ihrem eigenen Ast, sondern an dem, auf dem wir alle sitzen.

Solange man unseren Protest nicht hört – ihn sogar verteufelt – und sich mehr darüber aufregt, als dass eine Rechtsextremistin hier live Lügen verbreitet, benötigen wir mehr derartiger Aktionen. Wer leisen Protest will, will keinen Protest. Protest, der nicht stört, ist wirkungslos. Der Lärm beim Sommerinterview hat funktioniert.

Artikelbild: Screenshot https://www.tagesschau.de/thema/ard-sommerinterview

Passend dazu:

Zur Quelle wechseln

#funktioniert #gegen #genial #protest #sommerinterview #warum #weidel

Thomas Laschyk

Volksverpetzer

ChatGPT: Wie funktioniert der KI-Chatbot eigentlich wirklich? – Kolumne

Angeblich soll es nicht mehr lange dauern, dann kommt GPT-5. Hört sich unspektakulär an, könnte aber explosiv wirken, denn GPT ist die Software hinter ChatGPT und die fünfte Version könnte den lang ersehnten Qualitätssprung mit sich bringen, der gegenwärtige KI-Schwächen zumindest lindert.

In der Zwischenzeit möchte ich eine Erklärung anbringen, weil im großen KI-Taumel der letzten zweieinhalb Jahre oft eine zentrale Frage zu kurz kam: Wie funktioniert die heutige, generative KI eigentlich wirklich und wo kommt sie her?



Zum Autor


Sascha Lobo, Jahrgang 1975, ist Autor und Strategieberater mit den Schwerpunkten Internet und digitale Technologien. Gemeinsam mit Jule Lobo beschäftigt er sich im Podcast »Feel the News – Was Deutschland bewegt« 

mit aktuellen Debattenthemen.

Künstliche Intelligenz ist ein überraschend altes Konzept. Der britische Mathematiker Alan Turing hatte schon 1950 die Idee denkender Maschinen aufgebracht und sah als Königsdisziplin das maschinelle Verständnis von menschlicher Sprache. Deshalb entwickelte er den Turing-Test: Ein Computer besteht einen Turing-Test, wenn er von durchschnittlich intelligenten Personen in einem Chat für einen Menschen gehalten wird.

Der Begriff allerdings stammt in seiner englischen Form (Artificial Intelligence) von einer Konferenz am 13. Juli 1956 mit dem Namen »Dartmouth Summer Research Project on Artificial Intelligence«. In der Beschreibung des Projekts erklärten die Wissenschaftler: »Die Studie soll von der Vermutung ausgehen, dass prinzipiell jeder Aspekt des Lernens – oder jede andere Eigenschaft der Intelligenz – so genau beschrieben werden kann, dass eine Maschine ihn simulieren kann.«

Die Wahrnehmung von Computern sind Daten

Darauf aufbauend analysierte die Handvoll Fachleute, die sich damit beschäftigten, zunächst das menschliche Denken und Lernen – aus Sicht von Computern, also mit dem Fokus auf Daten. Das war damals viel weniger naheliegend, als es heute scheinen mag. Die etwas vereinfachte, zentrale Erkenntnis: Denken besteht beim Menschen aus Wahrnehmung, Verarbeitung und Interpretation der Wahrnehmungsdaten und Mustererkennung. Daraus kann (manchmal) eine Erkenntnis gewonnen werden – und dann geht es von vorn los.

Übertragen auf Computer: Die Wahrnehmung sind die Daten, mit denen man den Computer füttert. Die Verarbeitung ist die Speicherung, Sortierung und Kategorisierung der Daten. Die Mustererkennung sucht nach Mustern in den Daten, deren Bedeutung bekannt ist. Manchmal folgt darauf eine maschinelle Schlussfolgerung oder eine festgelegte Aktion, zum Beispiel nach dem schlichten Algorithmus »wenn, dann«.


Mehr zum Thema

Künstliche Intelligenz ist eine Art lernende Mustererkennung auf Speed. Dabei geht es vor allem um Wahrscheinlichkeiten: Mit welcher Wahrscheinlichkeit liegt welches Muster vor? Wie kann man die Wahrscheinlichkeit überprüfen oder erhöhen? Und wie kann man mit dieser Erkenntnis das Ergebnis verbessern?

In allen technischen Bereichen sind Computer in den vergangenen Jahrzehnten immer besser geworden: Sie können viel mehr Daten viel schneller auf viel mehr Arten verarbeiten, und sie finden deshalb immer schneller immer komplexere Muster.

Deshalb ist Nvidia übrigens eine so wichtige Firma für künstliche Intelligenz: Sie ist groß geworden mit Grafikchips, für die vergleichsweise viele Daten gleichzeitig verarbeitet werden müssen, damit man eine möglichst flüssige, farbenfrohe, lebensechte Bewegung auf dem Screen sieht. Genau das ist aber auch die Voraussetzung für künstliche Intelligenz.

Unter bestimmten Umständen ist künstliche Intelligenz immer besser

Seit Anfang der Sechzigerjahre setzt sich in der KI-Forschung langsam das Prinzip Machine Learning durch: Maschinen können aus Daten lernen, ohne dass man ihnen jeden einzelnen Schritt vorgibt – mit einem eigenen Lernkonzept. Zum Beispiel, indem man eine berechnete, mögliche Lösung für ein Problem versucht zu überprüfen. Wie gut ist diese mathematische Lösung, etwa ein Verfahren, wie man den schnellsten Weg von A nach B findet? Dann wird eine andere mögliche Lösung berechnet und der Computer prüft, ob sie besser oder schlechter ist. Im Machine Learning wird das so oft vollzogen, bis die Software ein Muster der Verbesserung erkennt. Deshalb wird unter bestimmten Umständen künstliche Intelligenz immer besser.

Für einen großen Durchbruch wie bei ChatGPT reichte das allerdings lange trotzdem nicht, der große Sieg der KI wurde zwar immer mahnend beschworen, der SPIEGEL schrieb 1989 warnend »Die Macht geht auf blöde Apparate über«. Aber kaum eine Technologiehoffnung wurde so oft und so nachhaltig enttäuscht wie der Glaube an eine tatsächlich halbwegs intelligente KI. Im Guten wie im Schlechten.

Anfang der Nullerjahre verändert sich genau das auf interessante Weise. Schon länger gab es eine Schule der KI, die überzeugt war, dass denkende Maschinen etwa so aufgebaut sein müssten wie Gehirne, also als neuronale Netze. Die dazugehörige Variante der Mustererkennung heißt Deep Learning. Dabei werden viele Prozessoren untereinander vernetzt und bilden eine sogenannte Schicht. Darauf wird eine weitere Schicht mit noch mehr vernetzten Prozessoren gelegt, etwa nach dem Muster, wie die Neuronen im Gehirn miteinander verschaltet sind. Darüber wieder eine Schicht und noch eine und noch eine.

Das Sprachmodell, mit dem ChatGPT gestartet ist, GPT-3.5, hat bis zu 96 Schichten. Leider waren die Ergebnisse von neuronalen Netzen trotz des Gehirnkonzepts »normalen« Computern lange unterlegen. Aber mit den immer stärkeren Prozessoren geschah 2012 etwas Überraschendes: Bei einer der wichtigsten Disziplinen, der Bilderkennung, waren neuronale Netze den klassischen Computern plötzlich deutlich überlegen.

Bilderkennung ist eine der klassischen Disziplinen der künstlichen Intelligenz. Sie wird zum Beispiel gebraucht, damit Computer ihre Umwelt besser erkennen können. Und gleichzeitig ist die Bilderkennung der erste Schritt zur Bildherstellung.

Wenn ich eine Katze auf einem Foto erkenne, dann beruht das auf meinem Wissen, welche visuellen Merkmale oder eben Muster auf eine Katze hindeuten und welche nicht: Spitze Ohren, Reißzähne, Fell – ja. Sonnenbrille, Daumen, Hosenanzug – tendenziell nein. Mit diesem Wissen kann man dann auch einfacher ein Katzenbild erschaffen. Deshalb ist die Entdeckung der Fähigkeiten von neuronalen Netzen ein Sprung für die generative künstliche Intelligenz. Dafür hat der KI-Forscher Geoffrey Hinton 2024 den Nobelpreis bekommen.

Das hat bis 2017 immerhin dazu geführt, dass KI Bilddaten so gut erkennen konnte, dass man damit zum Beispiel autonomes Fahren auf den Weg bringen konnte. Mit menschlicher Sprache aber waren neuronale Netze lange zu schnell überfordert. Bis 2017 ein wissenschaftliches Papier den Grundstein für den heutigen Erfolg von künstlicher Intelligenz wie ChatGPT legte: Die »Google Eight«, acht damals bei Google angestellte Wissenschaftler, verfassten ein Papier namens »Attention is all you need« 

. Frühere KI-Modelle analysierten Texte streng sequenziell, Wort für Wort, und stießen damit rasch an die Grenzen des Textverständnisses.


Mehr zum Thema

Im Papier stellten die acht das Prinzip »Transformer« vor (das »T« von ChatGPT kommt daher). Dabei schaut die KI nach den Mustern und Zusammenhängen zwischen den mutmaßlich wichtigsten Worten und kleineren Wortteilen (die nennt man Token) eines Textes. Dann richtet der Computer die Aufmerksamkeit auf diese wichtigen Passagen und deren Zusammenhänge – daher der Titel des Papiers.

Man kann sich das ungefähr vorstellen wie eine Person, die die wichtigsten Begriffe in einem Text unterstreicht. Dann lässt sich auf den ersten Blick viel besser sehen, wovon der Text überhaupt handelt. Und auf diese Weise kann man das wichtigste Verständnismuster für Texte, die Beziehung der Worte untereinander, leichter erkennen.

Mit »Attention is all you need« war der Grundstein von ChatGPT gelegt

Ob direkt nach einem Wort wie »kalt« ein Wort wie »ein«, »die« oder »und« kommt, ist nicht besonders entscheidend. Ob zwei Sätze später aber »Wetter« steht oder »Persönlichkeit« zu lesen ist, prägt die Bedeutung des Textes maßgeblich. Mit »Attention is all you need« und dem Prinzip Transformer war der Grundstein von ChatGPT gelegt. Bis heute steckt der technologische Ansatz der Transformer hinter den bekannten großen Sprachmodellen, also der Software, die zum Beispiel hinter ChatGPT, Claude oder DeepSeek steckt, gewissermaßen der Motor dieser künstlichen Intelligenzen.

Trotzdem war die Entdeckung des Transformers noch immer nicht ausreichend, um eine künstliche Intelligenz zu erschaffen, die zum Beispiel so mühelos den Turing-Test besteht, wie man es heute gewohnt ist. Bis OpenAI, das Unternehmen hinter ChatGPT, durch langwierige und teure Versuche zu einer Entdeckung kommt und 2020 dazu ein wissenschaftliches Papier veröffentlicht: »Scaling Laws for Neural Language Models«  heißt es.

Die einfache, aber revolutionäre Erkenntnis dahinter: Viel hilft viel. Sehr viel hilft sehr viel. Mehr Rechenleistung – und auch mehr deshalb verarbeitbare Daten – verbessert die Qualität von künstlicher Intelligenz deutlich. Allerdings sind die Effekte erst dann wirklich spürbar, wenn nicht nur ein paar Hunderte, sondern Tausende oder sogar Zehntausende Prozessoren gleichzeitig arbeiten. Erst dann werden die vielen Schichten neuronaler Netze so gut in der Mustererkennung, dass es für menschliche Sprache ausreicht.

Aus diesem Grund ist die Entwicklung von großen Sprachmodellen, dem gegenwärtig besten Ansatz für menschenähnliche künstliche Intelligenz, so unfassbar teuer. Die erste, im November 2022 veröffentlichte Version von ChatGPT, wurde mit 10.000 Prozessoren des Modells A100 trainiert, der Stückpreis lag damals bei mehr als 30.000 US-Dollar.

Wie KI die Basics lernt

Die Art des Trainings für große Sprachmodelle, maßgeblich von OpenAI entwickelt, ist ein weiterer Grund für die Qualität heutiger, generativer künstlicher Intelligenz. ChatGPT hat vor allem zwei Arten des Machine Learnings kombiniert: einerseits das »Self-Supervised Learning«, also das selbstüberwachte Lernen. Dabei werden riesige Datenmengen, zum Beispiel Texte aus dem Internet, nach wiederkehrenden Mustern und Wahrscheinlichkeiten durchforstet. Dann werden die erkannten Muster überprüft, etwa, in dem die Maschine sich selbst fragt, wie ein Satz mit welcher Wahrscheinlichkeit zu beenden ist: »Die Katze sitzt auf der« … die größte Wahrscheinlichkeit hätte dann vielleicht »Fensterbank«, danach vielleicht »Mauer« und dann »Bettdecke«. So lernt die KI die Basics.

Anzeige




Sascha Lobo

Die große Vertrauenskrise

Verlag: Kiepenheuer & Witsch

Seitenanzahl: 336

Für 25,00 € kaufen

Preisabfragezeitpunkt

10.07.2025 11.59 Uhr

Keine Gewähr

Bei Amazon bestellen

Bei Thalia bestellen

Bei Genialokal bestellen

Bei Hugendubel bestellen

Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Danach kommt die zweite, wichtige Art des Lernens, das »Reinforcement Learning«, also das bestärkende Lernen. Dabei wird oft menschliches Feedback eingebaut, also Leute, die die verschiedenen Lösungsvorschläge der Maschine bewerten – und dann die guten Lösungen belohnen und die schlechten bestrafen (reinforcement). Mit der richtigen Kombination dieser beiden Lernansätze schließlich kommt man so weit, dass es für die Veröffentlichung von ChatGPT am 30. November 2022 gereicht hat, also dem Produkt, das den heutigen Hype wie Siegeszug von KI angestoßen hat.

Bis heute hört man oft, dass generative KI einfach nur die Wahrscheinlichkeit berechnet, mit der auf ein Wort ein anderes folgt, wenn der Kontext dazu geliefert wird. Als »Stochastische Wahrheit« wird generative KI auch von Fachleuten oft verspottet, ein bekanntes Zitat der Linguistin und KI-Kritikerin Emily Bender lautet: »Large language models are stochastic parrots.« (Große Sprachmodelle sind stochastische Papageien).

In vielen Abwertungen der KI steckt eine Spur Hybris

Das soll an den Grundfesten des Prinzips künstliche Intelligenz rütteln, weil es unterstellt: Da ist nichts intelligent, der Sinn wird gar nicht ernsthaft maschinell verstanden, das Verständnis nur nachgeahmt. Das ist technisch betrachtet zwar wahrscheinlich weitgehend korrekt, obwohl man argumentieren könnte, dass der Mensch künstliche Intelligenz gar nicht so tiefgreifend versteht, um das wirklich beurteilen zu können.

Aber eine andere Entgegnung erscheint mir zielführender, erst recht kurz vor einem mutmaßlichen Durchbruch mit GPT-5. Denn dass die Maschine auch im Jahr 2025 Verständnis und Intelligenz nur sehr geschickt nachahmt, mag sein. Aber das Denken des Menschen funktioniert verdammt ähnlich. Und so steckt in vielen allzu heftigen Abwertungen der künstlichen Intelligenz zumindest eine Spur der Hybris, dass der Mensch noch stets überlegen sei. Was mir angesichts der gegenwärtigen Entwicklung doch arg mutig erscheint. Übermutig beinahe.

Hier weiter lesen…

#chatbot #chatgpt #eigentlich #funktioniert #kolumne #wirklich

Thema: ChatGPT

Deutschlands führende Nachrichtenseite. Alles Wichtige aus Politik, Wirtschaft, Sport, Kultur, Wissenschaft, Technik und mehr.

DER SPIEGEL

KI: Wie funktioniert eigentlich ChatGPT wirklich? – Kolumne

Angeblich soll es nicht mehr lange dauern, dann kommt GPT-5. Hört sich unspektakulär an, könnte aber explosiv wirken, denn GPT ist die Software hinter ChatGPT und die fünfte Version könnte den lang ersehnten Qualitätssprung mit sich bringen, der gegenwärtige KI-Schwächen zumindest lindert.

In der Zwischenzeit möchte ich eine Erklärung anbringen, weil im großen KI-Taumel der letzten zweieinhalb Jahre oft eine zentrale Frage zu kurz kam: Wie funktioniert die heutige, generative KI eigentlich wirklich und wo kommt sie her?



Zum Autor


Sascha Lobo, Jahrgang 1975, ist Autor und Strategieberater mit den Schwerpunkten Internet und digitale Technologien. Gemeinsam mit Jule Lobo beschäftigt er sich im Podcast »Feel the News – Was Deutschland bewegt« 

mit aktuellen Debattenthemen.

Künstliche Intelligenz ist ein überraschend altes Konzept. Der britische Mathematiker Alan Turing hatte schon 1950 die Idee denkender Maschinen aufgebracht und sah als Königsdisziplin das maschinelle Verständnis von menschlicher Sprache. Deshalb entwickelte er den Turing-Test: Ein Computer besteht einen Turing-Test, wenn er von durchschnittlich intelligenten Personen in einem Chat für einen Menschen gehalten wird.

Der Begriff allerdings stammt in seiner englischen Form (Artificial Intelligence) von einer Konferenz am 13. Juli 1956 mit dem Namen »Dartmouth Summer Research Project on Artificial Intelligence«. In der Beschreibung des Projekts erklärten die Wissenschaftler: »Die Studie soll von der Vermutung ausgehen, dass prinzipiell jeder Aspekt des Lernens – oder jede andere Eigenschaft der Intelligenz – so genau beschrieben werden kann, dass eine Maschine ihn simulieren kann.«

Die Wahrnehmung von Computern sind Daten

Darauf aufbauend analysierte die Handvoll Fachleute, die sich damit beschäftigten, zunächst das menschliche Denken und Lernen – aus Sicht von Computern, also mit dem Fokus auf Daten. Das war damals viel weniger nahe liegend, als es heute scheinen mag. Die etwas, vereinfachte, zentrale Erkenntnis: Denken besteht beim Menschen aus Wahrnehmung, Verarbeitung und Interpretation der Wahrnehmungsdaten und Mustererkennung. Daraus kann (manchmal) eine Erkenntnis gewonnen werden – und dann geht es von vorn los.

Übertragen auf Computer: Die Wahrnehmung sind die Daten, mit denen man den Computer füttert. Die Verarbeitung ist die Speicherung, Sortierung und Kategorisierung der Daten. Die Mustererkennung sucht nach Mustern in den Daten, deren Bedeutung bekannt ist. Manchmal folgt darauf eine maschinelle Schlussfolgerung oder eine festgelegte Aktion, zum Beispiel nach dem schlichten Algorithmus »wenn, dann«.


Mehr zum Thema

Künstliche Intelligenz ist eine Art lernende Mustererkennung auf Speed. Dabei geht es vor allem um Wahrscheinlichkeiten: Mit welcher Wahrscheinlichkeit liegt welches Muster vor? Wie kann man die Wahrscheinlichkeit überprüfen oder erhöhen? Und wie kann man mit dieser Erkenntnis das Ergebnis verbessern?

In allen technischen Bereichen sind Computer in den vergangenen Jahrzehnten immer besser geworden: Sie können viel mehr Daten viel schneller auf viel mehr Arten verarbeiten, und sie finden deshalb immer schneller immer komplexere Muster.

Deshalb ist Nvidia übrigens eine so wichtige Firma für künstliche Intelligenz: Sie ist groß geworden mit Grafikchips, für die vergleichsweise viele Daten gleichzeitig verarbeitet werden müssen, damit man eine möglichst flüssige, farbenfrohe, lebensechte Bewegung auf dem Screen sieht. Genau das ist aber auch die Voraussetzung für künstliche Intelligenz.

Unter bestimmten Umständen ist künstliche Intelligenz immer besser

Seit Anfang der Sechzigerjahre setzt sich in der KI-Forschung langsam das Prinzip Machine Learning durch: Maschinen können aus Daten lernen, ohne dass man ihnen jeden einzelnen Schritt vorgibt – mit einem eigenen Lernkonzept. Zum Beispiel, indem man eine berechnete, mögliche Lösung für ein Problem versucht zu überprüfen. Wie gut ist diese mathematische Lösung, etwa ein Verfahren, wie man den schnellsten Weg von A nach B findet? Dann wird eine andere mögliche Lösung berechnet und der Computer prüft, ob sie besser oder schlechter ist. Im Machine Learning wird das so oft vollzogen, bis die Software ein Muster der Verbesserung erkennt. Deshalb wird unter bestimmten Umständen künstliche Intelligenz immer besser.

Für einen großen Durchbruch wie bei ChatGPT reichte das allerdings lange trotzdem nicht, der große Sieg der KI wurde zwar immer mahnend beschworen, der SPIEGEL schrieb 1989 warnend »Die Macht geht auf blöde Apparate über«. Aber kaum eine Technologiehoffnung wurde so oft und so nachhaltig enttäuscht wie der Glaube an eine tatsächlich halbwegs intelligente KI. Im Guten wie im Schlechten.

Anfang der Nullerjahre verändert sich genau das auf interessante Weise. Schon länger gab es eine Schule der KI, die überzeugt war, dass denkende Maschinen etwa so aufgebaut sein müssten wie Gehirne, also als neuronale Netze. Die dazugehörige Variante der Mustererkennung heißt Deep Learning. Dabei werden viele Prozessoren untereinander vernetzt und bilden eine sogenannte Schicht. Darauf wird eine weitere Schicht mit noch mehr vernetzten Prozessoren gelegt, etwa nach dem Muster, wie die Neuronen im Gehirn miteinander verschaltet sind. Darüber wieder eine Schicht und noch eine und noch eine.

Das Sprachmodell, mit dem ChatGPT gestartet ist, GPT-3.5, hat bis zu 96 Schichten. Leider waren die Ergebnisse von neuronalen Netzen trotz des Gehirnkonzepts »normalen« Computern lange unterlegen. Aber mit den immer stärkeren Prozessoren geschah 2012 etwas Überraschendes: Bei einer der wichtigsten Disziplinen, der Bilderkennung, waren neuronale Netze den klassischen Computern plötzlich deutlich überlegen.

Bilderkennung ist eine der klassischen Disziplinen der künstlichen Intelligenz. Sie wird zum Beispiel gebraucht, damit Computer ihre Umwelt besser erkennen können. Und gleichzeitig ist die Bilderkennung der erste Schritt zur Bildherstellung.

Wenn ich eine Katze auf einem Foto erkenne, dann beruht das auf meinem Wissen, welche visuellen Merkmale oder eben Muster auf eine Katze hindeuten und welche nicht: Spitze Ohren, Reißzähne, Fell – ja. Sonnenbrille, Daumen, Hosenanzug – tendenziell nein. Mit diesem Wissen kann man dann auch einfacher ein Katzenbild erschaffen. Deshalb ist die Entdeckung der Fähigkeiten von neuronalen Netzen ein Sprung für die generative künstliche Intelligenz. Dafür hat der KI-Forscher Geoffrey Hinton 2024 den Nobelpreis bekommen.

Das hat bis 2017 immerhin dazu geführt, dass KI Bilddaten so gut erkennen konnte, dass man damit zum Beispiel autonomes Fahren auf den Weg bringen konnte. Mit menschlicher Sprache aber waren neuronale Netze lange zu schnell überfordert. Bis 2017 ein wissenschaftliches Papier den Grundstein für den heutigen Erfolg von künstlicher Intelligenz wie ChatGPT legte: Die »Google Eight«, acht damals bei Google angestellte Wissenschaftler verfassten ein Papier namens »Attention is all you need« 

. Frühere KI-Modelle analysierten Texte streng sequenziell, Wort für Wort, und stießen damit rasch an die Grenzen des Textverständnisses.


Mehr zum Thema

Im Papier stellten die acht das Prinzip »Transformer« vor (das »T« von ChatGPT kommt daher). Dabei schaut die KI nach den Mustern und Zusammenhängen zwischen den mutmaßlich wichtigsten Worten und kleineren Wortteilen (die nennt man Token) eines Textes. Dann richtet der Computer die Aufmerksamkeit auf diese wichtigen Passagen und deren Zusammenhänge – daher der Titel des Papiers.

Man kann sich das ungefähr vorstellen wie eine Person, die die wichtigsten Begriffe in einem Text unterstreicht. Dann lässt sich auf den ersten Blick viel besser sehen, wovon der Text überhaupt handelt. Und auf diese Weise kann man das wichtigste Verständnismuster für Texte, die Beziehung der Worte untereinander, leichter erkennen.

Mit »Attention is all you need« war der Grundstein von ChatGPT gelegt

Ob direkt nach einem Wort wie »kalt« ein Wort wie »ein«, »die« oder »und« kommt, ist nicht besonders entscheidend. Ob zwei Sätze später aber »Wetter« steht oder »Persönlichkeit« zu lesen ist, prägt die Bedeutung des Textes maßgeblich. Mit »Attention is all you need« und dem Prinzip Transformer war der Grundstein von ChatGPT gelegt. Bis heute steckt der technologische Ansatz der Transformer hinter den bekannten großen Sprachmodellen, also der Software, die zum Beispiel hinter ChatGPT, Claude oder DeepSeek steckt, gewissermaßen der Motor dieser künstlichen Intelligenzen.

Trotzdem war die Entdeckung des Transformers noch immer nicht ausreichend, um eine künstliche Intelligenz zu erschaffen, die zum Beispiel so mühelos den Turing-Test besteht, wie man es heute gewohnt ist. Bis OpenAI, das Unternehmen hinter ChatGPT, durch langwierige und teure Versuche zu einer Entdeckung kommt und 2020 dazu ein wissenschaftliches Papier veröffentlicht: »Scaling Laws for Neural Language Models«  heißt es.

Die einfache, aber revolutionäre Erkenntnis dahinter: Viel hilft viel. Sehr viel hilft sehr viel. Mehr Rechenleistung – und auch mehr deshalb verarbeitbare Daten – verbessert die Qualität von künstlicher Intelligenz deutlich. Allerdings sind die Effekte erst dann wirklich spürbar, wenn nicht nur ein paar Hunderte, sondern Tausende oder sogar Zehntausende Prozessoren gleichzeitig arbeiten. Erst dann werden die vielen Schichten neuronaler Netze so gut in der Mustererkennung, dass es für menschliche Sprache ausreicht.

Aus diesem Grund ist die Entwicklung von großen Sprachmodellen, dem gegenwärtig besten Ansatz für menschenähnliche künstliche Intelligenz, so unfassbar teuer. Die erste, im November 2022 veröffentlichte Version von ChatGPT, wurde mit 10.000 Prozessoren des Modells A100 trainiert, der Stückpreis lag damals bei mehr als 30.000 US-Dollar.

Wie KI die Basics lernt

Die Art des Trainings für große Sprachmodelle, maßgeblich von OpenAI entwickelt, ist ein weiterer Grund für die Qualität heutiger, generativer künstlicher Intelligenz. ChatGPT hat vor allem zwei Arten des Machine Learnings kombiniert: einerseits das »Self-Supervised Learning«, also das selbstüberwachte Lernen. Dabei werden riesige Datenmengen, zum Beispiel Texte aus dem Internet, nach wiederkehrenden Mustern und Wahrscheinlichkeiten durchforstet. Dann werden die erkannten Muster überprüft, etwa, in dem die Maschine sich selbst fragt, wie ein Satz mit welcher Wahrscheinlichkeit zu beenden ist: »Die Katze sitzt auf der« … die größte Wahrscheinlichkeit hätte dann vielleicht »Fensterbank«, danach vielleicht »Mauer« und dann »Bettdecke«. So lernt die KI die Basics.

Anzeige




Sascha Lobo

Die große Vertrauenskrise

Verlag: Kiepenheuer & Witsch

Seitenanzahl: 336

Für 25,00 € kaufen

Preisabfragezeitpunkt

09.07.2025 23.56 Uhr

Keine Gewähr

Bei Amazon bestellen

Bei Thalia bestellen

Bei Genialokal bestellen

Bei Hugendubel bestellen

Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Danach kommt die zweite, wichtige Art des Lernens, das »Reinforcement Learning«, also das bestärkende Lernen. Dabei wird oft menschliches Feedback eingebaut, also Leute, die die verschiedenen Lösungsvorschläge der Maschine bewerten – und dann die guten Lösungen belohnen und die schlechten bestrafen (reinforcement). Mit der richtigen Kombination dieser beiden Lernansätze schließlich kommt man so weit, dass es für die Veröffentlichung von ChatGPT am 30. November 2022 gereicht hat, also dem Produkt, das den heutigen Hype wie Siegeszug von KI angestoßen hat.

Bis heute hört man oft, dass generative KI einfach nur die Wahrscheinlichkeit berechnet, mit der auf ein Wort ein anderes folgt, wenn der Kontext dazu geliefert wird. Als »Stochastische Wahrheit« wird generative KI auch von Fachleuten oft verspottet, ein bekanntes Zitat der Linguistin und KI-Kritikerin Emily Bender lautet: »Large language models are stochastic parrots.« (Große Sprachmodelle sind stochastische Papageien).

In vielen Abwertungen der KI steckt eine Spur Hybris

Das soll an den Grundfesten des Prinzips künstliche Intelligenz rütteln, weil es unterstellt: Da ist nichts intelligent, der Sinn wird gar nicht ernsthaft maschinell verstanden, das Verständnis nur nachgeahmt. Das ist technisch betrachtet zwar wahrscheinlich weitgehend korrekt, obwohl man argumentieren könnte, dass der Mensch künstliche Intelligenz gar nicht so tiefgreifend versteht, um das wirklich beurteilen zu können.

Aber eine andere Entgegnung erscheint mir zielführender, erst recht kurz vor einem mutmaßlichen Durchbruch mit GPT-5. Denn dass die Maschine auch im Jahr 2025 Verständnis und Intelligenz nur sehr geschickt nachahmt, mag sein. Aber das Denken des Menschen funktioniert verdammt ähnlich. Und so steckt in vielen allzu heftigen Abwertungen der künstlichen Intelligenz zumindest eine Spur der Hybris, dass der Mensch noch stets überlegen sei. Was mir angesichts der gegenwärtigen Entwicklung doch arg mutig erscheint. Übermutig beinahe.

Hier weiter lesen…

#chatgpt #eigentlich #funktioniert #kolumne #wirklich

Thema: ChatGPT

Deutschlands führende Nachrichtenseite. Alles Wichtige aus Politik, Wirtschaft, Sport, Kultur, Wissenschaft, Technik und mehr.

DER SPIEGEL

Gerade gelesen: "Beim Schauen des #Presseclub schwillt mir der Kamm."

Da kann ich nur sagen:
Beim Schauen des #Presseclub #podcast #mediathek schwillt mir immer der Kamm.

Danach oder schon währenddessen muss ich dann losrennen zum Ausgleich. #hunderunde #jogging #laufen

Einen Tag danach geht das auch noch. Geht immer.

Oder mal in den #wald #brüllen. Einfach alles mal unbekümmert herausschreien. #dubistnichtallein

In der Nähe vom #stausee in #haltern ist es mir zuletzt positiv aufgefallen, vielleicht weil das #Echo über den #See zurück so verdammt gut klang. #funktioniert #tutgut #wdr

Das #Völkerrecht #funktioniert #nicht❗️
Wie so #vieles #andere, was die #Machthaber der #Welt #beschlossen #haben, auch nicht ❗️🤬

Klare Forschungslage: AfD Ausgrenzen funktioniert

0

Klare Forschungslage: AfD Ausgrenzen funktioniert

von Annika Brockschmidt | Mai 6, 2025 | Analyse

Aktuell fordern vermehrt Stimmen eine Normalisierung der AfD und rechts-außen Positionen. Dazu zählt CDU/CSU-Fraktionschef Jens Spahn, der fordert, mit der AfD wie mit anderen Oppositionsparteien umzugehen. Auch Bundestagspräsidentin Julia Klöckner plädiert für eine Annäherung an die AfD. Ebenso senden Medien Signale, etwa das rechtsgerichtete NDR-Format „Klar“. WDR-Intendantin Karin Vernau äußerte, AfD-Positionen müssten auch in Sendungen des WDR dargestellt werden. Insgesamt deutet vieles auf eine Verharmlosung und Normalisierung extremer rechter Positionen hin.

Der politische Rechtsruck, vor allem beim Thema Migration, fand in den letzten Monaten bei fast allen Parteien des demokratischen Spektrums statt. In Kombination mit den politischen Erfolgen, die die AfD in letzter Zeit verzeichnen konnte, wird durch Äußerungen wie denen von Spahn, Linnemann oder Klöckner der Umgang mit der AfD – sowohl thematisch als auch im parlamentarischen Betrieb, aber auch medial – gerade wieder Thema. Wie sieht eigentlich der Forschungsstand dazu aus?

Forschung ist klar: Ausgrenzung rechtsextremer Parteien stärkt sie nicht

In einem Artikel auf tagesschau.de wurde diese Frage – AfD ausgrenzen, ja oder nein? – kürzlich beleuchtet, scheinbar aus zwei gleichwertigen Forschungsperspektiven. Die Tagesschau zitiert Wolfgang Merkel, emeritierter Professor für Politikwissenschaft, der schon lange nicht mehr zu der Frage forscht, die er hier beantwortet hat. Er behauptet ohne Belege, dass das Ausgrenzen der AfD kontraproduktiv sei, weil das nur die eigene Opfer-Erzählung der Partei bestätige. Natürlich gebe es zu dieser Frage, wie in jedem Forschungsfeld, unterschiedliche Positionen von Wissenschaftler*innen, sagt mir dazu der Politikwissenschaftler Tarik Abou-Chadi, Professor für Comparative European Politics am Nuffield College der Oxford University, der selbst zum Wandel der Parteipolitik und dem Aufstieg der radikalen Rechten in Europa forscht – doch in einigen zentralen Punkten sei sich die Forschung einig:

„Bei den Leuten, die tatsächlich zur radikalen Rechten und der Frage von ihrer Legitimierung und Normalisierung forschen, gibt es eine relativ konsensuale Meinung dazu. Ich kenne keine Studie, die sagen würde, dass die Ausgrenzung dazu führt, dass radikale Rechte dann mehr Unterstützung bekommen.“ Unterschiede gäbe es in der Beurteilung von Fragen, wie ob etwa ein Hotel für eine AfD Tagung zur Verfügung gestellt werden sollte – aber nicht in der Frage von inhaltlicher oder formaler Ausgrenzung: „Nichts zeigt, dass wenn die AfD ausgegrenzt wird, wenn es ein negatives Campaigning gegenüber der AfD gibt, dies dazu führt, dass die AfD beliebter wird – sondern eher im Gegenteil.“

Tarik Abou-Chadi: Programmatische Anpassung funktioniert nicht

Was die Folgen einer inhaltlichen Anpassung etablierter Parteien an Rechtsaußen Positionen angehe, beispielsweise beim Thema Migration, sei der Forschungsstand ebenfalls klar, sagt Abou-Chadi. „Programmatische Anpassung – da zeigt unsere eigene Forschung sehr klar, funktioniert nicht. Es funktioniert nicht, dadurch WählerInnen zurückzugewinnen, dass man selbst migrationskritische Positionen einnimmt. Dazu gibt es mittlerweile viele Studien, die das zeigen.“

Abou-Chadi verweist zudem auf kurzfristige und langfristige Effekte einer inhaltlichen Anpassung an rechte und rechtsextreme Parteien: „Kurzfristig sehen wir, dass eine solche Anpassung wenig bringt. Wenn man etwa Umfragen dazu durchführt oder sich anschaut, was im Zeitraum einer Wahlperiode passiert, sieht man, dass viele Leute einfach nicht auf die veränderte Migrationsposition von etablierten Parteien reagieren und sich deshalb nicht zu ihnen zurückbewegen.“ Das liege auch daran, dass ein solcher thematischer Schwenk von Menschen, die „migrationskritisch sind und schon ihren Weg in das Territorium der Far-Right gefunden haben“, diesen Positionswechsel etablierter Parteien nicht als glaubwürdig finden. Die kurzfristige, durch einen Rechtsschwenk erhoffte Wirkung, dass rechte Wähler für etablierte Parteien gewonnen werden könnten, bleibe also aus. Gleichzeitig sei die mittelfristige Wirkung fatal: „Mittelfristig führt das dazu, dass sowohl diese rechteren Positionen als auch Parteien wie die AFD, die originär für diese Positionen stehen, legitimiert werden.“

Medien und etablierte Parteien prägen das Meinungsbild

In einem zweiten Schritt zeige die Forschung laut Abou-Chadi, dass die Rechtsverschiebung etablierter Parteien auch Bevölkerungsmeinungen verändert: „Wenn man immer wieder hört – und zwar nicht nur von der AfD – ‘Migration ist das größte Problem’ -, sondern irgendwann auch vom Bundespräsidenten, dann fängt man an, auch zu denken, das sei wirklich ein Problem, das ist gut dokumentiert.“ 

Das häufige Gegenargument lautet, man müsse „die Sorgen der Bürger“ ernst nehmen. Dies bezieht sich interessanterweise nur auf Sorgen konservativer oder rechter Menschen. Es ignoriert dabei Forschungsergebnisse darüber, wie politische Meinungsbildung tatsächlich erfolgt. Laut Abou-Chadi beeinflusst die Positionierung etablierter Parteien maßgeblich die Meinungsbildung der Wähler*innen: „Mein Lieblingsbeispiel ist die Schweiz, wo ja sehr, sehr häufig abgestimmt wird zu politischen Themen. Und der stärkste, zuverlässigste Prädiktor dafür, wie Leute abstimmen, ist, welche Empfehlung die Partei gegeben hat, die sie unterstützen – das beeinflusst sehr stark, wie Leute sich zu diesen Fragen positionieren. Das ist eigentlich nicht überraschend, und auch nicht verwerflich: Was Parteien sagen, beeinflusst, wie Leute über ein Thema denken.“ Kurz: „Es gibt diese zwei Mechanismen, die die radikale Rechte oder extreme Rechte stärken, einmal indem sie in der Wahrnehmung der Bevölkerung normalisiert werden und indem sich dadurch zweitens auch die Einstellungen der Bevölkerung dahingehend ändern.“ 

Medien beeinflussen die öffentliche Meinung zu Migration

Letztlich handelt es sich also um die Frage von der Henne und dem Ei – was war zuerst da? Die „Sorgen“ zum Thema Migration oder die mediale und politische Themensetzung? Das lasse sich nicht immer ganz klar unterscheiden. Aber eines zeige die Forschung deutlich: „Wenn man Leute fragt, ob Migration ein Problem für sie persönlich ist und sie gleichzeitig fragt, ob Migration ein Problem für das Land darstellt, sagen ganz wenige Leute, es sei ein Problem, das sie persönlich betreffe – und ganz viele Leute sagen, es ist ein Problem für das Land. Ich habe kein anderes Thema gesehen, wo diese Schere so weit auseinandergeht. Und das spricht doch sehr dafür, dass es eben nicht die empfundene, erfahrene Auseinandersetzung mit der Migration ist, die hier eine Rolle spielt.“

Das passt zu Forschungsergebnissen, die zeigen, dass die radikale Rechte an Orten, wo es weniger Migration gibt, deutlich stärker ist. „Es scheint weniger die direkte Auseinandersetzung mit Migration zu sein und mehr die mediale“, schlussfolgert Abou-Chadi. Das bestätigt auch eine Langzeit-Untersuchung am Beispiel der Benelux-Länder der Politikwissenschaftlerin Léonie de Jonge, die seit Anfang 2025 an der Universität Tübingen eine politikwissenschaftliche Professur für Rechtsextremismusforschung mit dem Schwerpunkt „Politische Akteure und Ideologien“ angetreten hat. Ein besonderes Beispiel, dem sie sich in einer weiteren Studie widmet, ist die Wallonie in Belgien: Dort habe ein „cordon sanitaire“ von Medien und Politik den Aufstieg von Rechtsaußen-Parteien bisher erfolgreich verhindert. 

De Jonge zeigt, wie effektiv ein „Cordon sanitaire“ in Bezug auf Rechtsextremismus sein kann: „Technisch gesehen ist ein Cordon sanitaire eine gesicherte Linie, die eingerichtet wurde, um die Ausbreitung von Infektionskrankheiten zu verhindern. In diesem Fall handelt es sich um eine Maßnahme, die die Ausbreitung von (Rechts-)Extremismus verhindern soll.“ 

De Jonge bezieht sich auch auf Untersuchungen des schwedischen Soziologen Jens Rydgren (Universität Stockholm), der schrieb: „Rechtspopulismus [ist] nicht ansteckend (im Sinne von Epidemien); er verbreitet sich nur, wenn die Akteure dies wollen“. De Jonge schlussfolgert: „Wenn es keine Akteure (d. h. Parteien) oder Kanäle (d. h. Medien) gibt, die rechtspopulistische Themen verbreiten, ist es weniger wahrscheinlich, dass sie sich ausbreiten und normalisiert werden.“ In der Wallonie hat das funktioniert, betont auch Abou-Chadi: „Die Wallonie ist der einzige Ort, den wir mittlerweile haben, das einzige Parteiensystem in Westeuropa, in dem es keine radikal-rechte Partei gibt, die stark geworden ist.“

Strukturelle Probleme im Journalismus führen zur Verzerrung der medialen Darstellung des Forschungsstands

Neben etablierten Parteien kommt also auch den Medien eine zentrale Rolle bei der Normalisierung rechtsextremer Positionen zu. Bei aller Medienkritik ist auch hier noch einmal wichtig zu betonen: Es gibt viele Journalist*innen, die hervorragende Arbeit machen – auch und gerade zum Thema der radikalen Rechten. So verweist auch Abou-Chadi darauf, dass es ihm bei seiner fachlichen Medienkritik nicht um Verallgemeinerungen, sondern um das Aufzeigen systemischer Probleme der Medienlandschaft – und wer in ihr immer wieder prominent zu Wort komme – gehe:

„Ich spreche regelmäßig mit Journalist*innen, die sehr informiert sind, die einen wirklich guten Job machen. Aber es gibt eine Klasse von Journalist*innen, die, wenn man ehrlich ist, zu allem etwas sagen“ – unabhängig davon, ob sie dazu das fachliche Grundwissen hätten. „Ich erwarte nicht, dass jemand akademische Fachjournale liest. Aber es wäre bei anderen Fragen unvorstellbar, dass man als Journalist*in in einem Podcast, in einer Talkshow sitzt und sagt, ‘ich denke, das ist so und so’ und dabei völlig ignoriert, dass es dazu Forschung gibt.“ 

Abou-Chadi sieht bei den Medien auch ein Formatproblem. In vielen (Talkshow) Formaten würden Journalist*innen mit Journalist*innen reden, das sei billig in der Produktion, dabei würden oft lediglich Meinungen ausgetauscht, und oft geschehe das ohne inhaltliche oder fachliche Qualifizierung: „Da geht es nicht darum, dass Journalist*innen beispielsweise über ihre Reportagen sprechen, sondern sie werden dahin gesetzt, um zu allem etwas zu sagen.“ Das sei nicht einmal den einzelnen Journalist*innen anzulasten, sondern den Anforderungen, die die Sendeformate erfüllt sehen wollen. 

Formatprobleme, Expert*innen, die keine sind und Both-Sides-Ism

Das Formatproblem bedingt dann teilweise auch die Auswahl der Expert*innen – die oft nicht unbedingt danach ausgewählt werden, wer tatsächlich in der Materie drin ist oder sich hauptberuflich damit beschäftigt, sondern danach, dass die für den Meinungs-Clash notwendigen Positionen besetzt sind – ungeachtet der eigentlichen Forschungslage. Das führt uns zurück zum eingangs erwähnten Tagesschau-Artikel, in dem es zur Frage der Ausgrenzung heißt „Wie so häufig lassen sich Unterstützer für beide Seiten finden.“ Das mag sein – doch nur einer der beiden zitierten Experten – der Sozialwissenschaftler Matthias Quent – forscht zu dem Thema und gibt den neuesten Stand der Forschung wieder.

Allein die Tatsache, dass sich irgendwo immer jemand für die Gegenposition findet, ist noch keine journalistische Leistung – sonst entsteht, wie in diesem Tagesschau-Artikel, der Eindruck, beide Positionen – die von Merkel und die von Quent – fußten gleichermaßen auf dem aktuellen Forschungsstand. Der Artikel endet mit den Sätzen: „Viele Ansätze also, doch auch viel Unsicherheit. Die eine klare Antwort im Umgang mit rechtspopulistischen Bewegungen gibt es wohl nicht.“ Das Gegenteil ist der Fall – die Forschungslage hat in der Tat eine klare Antwort auf die gestellte Frage. Abou-Chadi sieht in solchen Fällen ein mediales Problem: Es werde versucht, eine Horse-race-Situation darzustellen – also Both-Sides-ism, ohne die tatsächliche Faktenlage ausreichend zu beachten – „das verzerrt die wissenschaftliche Lage.“

Sendungen laden keine Expert*innen ein

Dieses strukturelle Sendungs- und Formatproblem – egal ob in Talkshows, oder wenn es um eingeholte O-Töne geht, bedingt, dass „immer die gleichen Leute eingeladen werden“ – auch, wenn diese Stimmen fachlich eine Minderheitenposition vertreten, oder eine, die gar nicht von tatsächlichen Fachleuten geteilt wird. Dabei spielen auch inner-mediale Mechanismen eine Rolle: „Der größte Prädiktor, ob man irgendwo in einer Fernsehsendung sitzt, ist immer noch, ob man es schafft, in den nächsten drei Stunden ins Studio kommen zu können“, sagt Abou-Chadi.

Das schließe in vielen Fällen Menschen, die aktiv forschen oder lehren, aus – und so finden sich immer wieder dieselben Leute auf den entsprechenden Sendeplätzen: „Das führt natürlich dazu, dass die Leute, die da befragt werden, häufig nicht tatsächliche Expert*innen sind. Das mag dann zwar ein Politikwissenschaftler sein, aber es ist nicht jemand, der zu dem Thema forscht oder lehrt.“ Abou-Chadi gibt auch zu bedenken, dass sich in der deutschen Politikwissenschaft einiges getan habe, sodass man auch junge Forscher*innen mit Expertise einladen könne – die Ausrede, dass man niemand anderen finde, könne nicht mehr gelten. 

Auf Kritik an der medialen Dauerpräsenz der AfD oder der unkritischen Wiedergabe von Statements wird von einigen Journalist*innen eingewandt, die Partei sei nun mal gewählt, sitze im Bundestag und müsse deswegen auch medial stattfinden. 

Grundsätzlich sei dieser Einwand fürs Erste nachvollziehbar, doch mediale Präsenz müsse an Bedingungen geknüpft sein, sagt Abou-Chadi: „Als zweiter Schritt muss gesagt werden, wenn diese Präsenz genutzt wird für Lügen und Hass, dann verwirkt man diesen Anspruch eben. Das scheint mir eigentlich eine relativ simple Logik, ohne dass man da in große demokratietheoretische Fragen einsteigen muss.“

Abou-Chadi fordert Journalist*innen an dieser Stelle auf, Eigenverantwortung zu übernehmen – auch, was die eigene Rolle angeht: „Ich weiß nicht, wie viel innerhalb von Redaktionen passiert, aber ich sehe wenig öffentliche aktive Auseinandersetzung mit der Rolle, die man gespielt hat bei der Normalisierung der radikalen Rechten.“ Kritik an der Berichterstattung über die radikale Rechte vonseiten derer, die sich in der Forschung genau mit diesen Mechanismen beschäftigen, werde ungern gesehen, sagt er. Gleichzeitig sei eine solche Debatte auch schwer über Twitter oder Bluesky zu führen: 

„Vielleicht muss man auch zusammen schauen, wie man Räume schafft, in denen man aktiv darüber nachdenkt und auch irgendwie Lösungen findet.“ Doch dafür muss es auf journalistischer Seite auch eine Bereitschaft geben, die im Moment häufig zu fehlen scheint. 

Auch jenseits der Führungsebene appelliert Abou-Chadi an Journalist*innen: „Ich würde mir manchmal wünschen, dass Journalist*innen da selbst lauter sind. Ich weiß, das ist ein Big Ask, denn man ist Teil des Systems – und so etwas kann auch persönliche negative Konsequenzen haben.“ Den gleichen Maßstab legt er auch für sich und seine Kolleg*innen an, man müsse in der inhaltlichen Auseinandersetzung bereit sein, „sich auch mit bestimmten Big Shots in der eigenen Disziplin anzulegen, auch wenn das nicht unbedingt gut für die Karriere sein mag.“

Was ist die Ursache für das mediale Fischen in rechten Gewässern – jenseits von Clickbait? „Es scheint eine Tendenz zu geben, dass man das Gefühl hat, man müsse Stimmen von weiter rechts näher abbilden“, sagt Abou-Chadi. Er sieht eine Korrelation von steigenden Umfragewerten der AfD und der Zunahme solcher Positionen in Redaktionen: „Je stärker die radikale Rechte ist, umso mehr redet man über sie – dann stellt sich die Frage, was soll man noch sagen? Und dann hat man das Gefühl – ‘was wir noch nicht genug gesagt haben, ist, dass die eventuell recht haben’”, versucht Abou-Chadi den Denkprozess innerhalb einiger Redaktionen nachzuvollziehen.

Man könne tatsächlich nur über deren Motivation spekulieren, sagt er – vielleicht gingen sie davon aus, als “linksgrün” wahrgenommen zu werden, und machten das, um zu zeigen, dass sie es eigentlich nicht sind. Abou-Chadi ist dialogbereit – er wendet ein: „Vielleicht gibt es auch eine komplizierte, gute Erklärung dafür. Dann habe ich die aber einfach noch nicht gehört, weil es eigentlich nicht den Versuch gibt, wie gesagt, auch damit aktiv umzugehen und die eigene Rolle in diesem Prozess zu reflektieren und zu diskutieren.“

Der Mythos der Neutralität

Oft fällt an dieser Stelle dann der Verweis auf “journalistische Unabhängigkeit” als Rechtfertigung des unkritischen Platformens rechter Parteien, Ideen und Narrative. Doch journalistische Berichterstattung ist insofern nie „neutral“, als dass sie einen Effekt auf ihre Konsument*innen hat: „Es ist zentral, dass Medien ihre Verantwortung verstehen – und dass der derzeitige Umgang mit rechtsextremen Akteuren und rechtsextremen Ideologien zur Erodierung der Demokratie führt. Medien müssen ihre aktive Rolle in diesem Prozess verstehen, sie geben nicht einfach passiv wieder. Politik und Medien bilden nicht einfach die öffentliche Meinung ab, sondern sie beeinflussen sie – das ist auch gar nicht anders möglich.“ 

Vor allem die Öffentlich-Rechtlichen müssen sich ihres Bildungsauftrags bewusst sein und ihn erfüllen, und dazu gehört ihre demokratische Grundverpflichtung – und ein Bewusstwerden der eigenen Verantwortung und Außenwirkung: „Die ARD ist eben nicht YouTube. Wenn etwas in der ARD kommt, dann kriegt es einen Stempel von Legitimität.“ Etablierte Medien müssen sich ihrer Verantwortung bewusst werden, was ihre eigene Rolle bei der Normalisierung der AfD und damit rechtsextremer Positionen angeht, wenn die weitere Unterwanderung unserer Demokratie von rechts gestoppt werden soll. 

Nadia Zaboura: Grundlegendes Umdenken in der deutschen Medienlandschaft nötig

Jetzt, wo das Bundesamt für Verfassungsschutz die gesamte AfD bundesweit als „gesichert rechtsextrem“ eingestuft hat, wäre es allerhöchste Zeit, dass Politik und Medien sich kritisch mit ihrer Rolle bei der Normalisierung der AfD beschäftigen – und Konsequenzen ziehen. Die Kommunikationswissenschaftlerin und Medienkritikerin Nadia Zaboura fordert ein grundlegendes Umdenken in der deutschen Medienlandschaft: „Es braucht nun eine faktisch fundierte und wissenschaftlich informierte Gesamt-Strategie, die einen konsistenten Umgang mit der Partei, ihren Strategien und ihren Ermöglichern bis in die politische Mitte garantiert.

Dazu müssen Medien sich wieder auf ihre journalistische Professionalität und Ethik zurückbesinnen und Tag für Tag prüfen, ob sie einer Politik-Behauptung bereits einen Nachrichtenwert zuweisen, ob sie sich dem Agenda-Setting populistischer Medien beugen, und ob sie über jedes Stöckchen, jede agitierende Aussage springen statt demokratischer Souveränität und Priorisierung den Vorrang zu geben.“ Zaboura fordert, dass Medien „Illusionen wie eine vermeintliche Entzauberung oder vermeintliche journalistische Objektivität ablegen, aber auch veraltete Prozesse auf den Prüfstand stellen müssen, wie u.a. die stenografische Adelung von Politikerzitaten als Headline und die Inszenierung von Systemgegnerschaft in Polit-Talks bei zeitgleicher Ablehnung von Live-Faktenchecks.“ 

Holt euch Rat von Wissenschaftler*innen!

Wie auch Abou-Chadi verweist Zaboura darauf, dass es sich weniger um ein individuelles, als ein strukturelles Medienproblem handle: „Viele Journalist*innen besitzen im Jahr 2025 zwar das Wissen und Handwerkszeug für eine mediale Berichterstattung, die der steigenden rechtsextremen Gefahr angemessenen begegnet. Im Berufsalltag sind diese Journalist*innen aber oftmals ermüdenden Diskussionen in wenig pluralen Redaktionen ausgesetzt. Wenn zusätzlich öffentlich-rechtliche Verantwortungsträger auf öffentlichen Bühnen erklären, dass sie Rassismus mit veralteten Konzepten wie Springerstiefel, Glatze und Baseball-Schläger in Verbindung bringen, dann besteht ebenfalls auf Leitungsebene ein elementares Wissensdefizit. Dort fehlen immer wieder basale Kenntnisse über Rassismus und die Ideologie weißer Vorherrschaft, die zugleich Ursache und Struktur rechtsextremer Gewalt sind, die die deutsche Gesellschaft durchziehen und die plurale Demokratie gefährden.“ 

Was müssten Medien stattdessen tun? Zaboura hat eine klare Handlungsempfehlung für deutsche Medien – „Mit externer Fachbegleitung [müsste] jedes einzelne Format, jedes Medienprodukt auf Demokratiefestigkeit abgeklopft werden. Genau das also, was Wissenschaftlerinnen und Wissenschaftler seit Jahren fortlaufend von Medienverantwortlichen fordern, sei es in internen Beratungen oder auf öffentlichen Bühnen.“ Auch der Deutsche Journalisten-Verbund (DJV) hat die Medien zum Umdenken aufgefordert – eine Normalisierung der AfD dürfe nicht weiter stattfinden. 

Doch zunächst scheint es weiterzugehen wie bisher: Im Anschluss an die Meldung der Einstufung der AfD durch den Verfassungsschutz als „gesichert rechtsextrem“ gab es in der ARD einen „Brennpunkt“. Wer war neben Nancy Faeser als Gast eingeladen? Der AfD-Vorsitzende Tino Chrupalla, der in der Sendung von einem “schwarzen Freitag für die Demokratie“ sprach. Man kann nur hoffen, dass man wenigstens in anderen Redaktionen endlich umschwenkt – und versteht, dass es medial so nicht weitergehen kann. 

Titelbild: Martin Schutt/dpa Canva

Passend dazu:

Zur Quelle wechseln

#ausgrenzen #forschungslage #funktioniert #klare

Annika Brockschmidt

Volksverpetzer

.

einfach #App installieren und
es
#funktioniert!
(fuer wen?)

https://arstechnica.com/security/2025/01/dozens-of-backdoored-chrome-extensions-discovered-on-2-6-million-devices/

.

Es war die wundervollste #Zivilisation aller Zeiten, sie hatten alles im #Überfluss -

ausser
#Bildung

.

Time to check if you ran any of these 33 malicious Chrome extensions

Two separate campaigns have been stealing credentials and browsing history for months.

Ars Technica
Vor zwei Jahren sind wir mit dem Büro ins FRIZ umgezogen (#FReiburger Innovations Zentrum)
Mit einer super innovativen
#Tür, die gefühlt alle zwei Wochen für eine Woche nicht #funktioniert.
Haushalt der Bundesregierung: Plötzlich gibt's keine Löcher und keine Probleme

Der Rauswurf von Finanzminister Lindner war auch dem Haushaltsstreit geschuldet. Jetzt ist von Haushaltslöchern plötzlich keine Rede mehr.

Süddeutsche Zeitung