@BlumeEvolution "Die iranischen Menschen verdienen Freiheit & Demokratie, wie alle anderen Völker auch."

Und weil dieser #Krieg den Menschen dort nur den #wettbewerbsbedingt-konfusen #Zynismus im Verhältnis von 1:5 bringt, wird es ihnen besonderen Chaos bescheren - Der #Fossilismus des geistigen Stillstandes OHNE #geistig-heilende #Worte und ebenso OHNE #wirklich-wahrhaftig #vorbildlich-nachahmenswerte #Taten❗️

@andreclaassen

Ich habe das Weidel-Ludwig-Treffen aufgedeckt – das ist wirklich passiert

0

Ich habe das Weidel-Ludwig-Treffen aufgedeckt – das ist wirklich passiert

von Annika Brockschmidt | Aug. 5, 2025 | Aktuelles

Annika Brockschmidt war vor Ort, als die CDU-Politikerin in Ungarn der Rechtsextremistin Alice Weidel die Hand schüttelte. Ludwig setzt sich entgegen der Versprechen der Konservativen für eine Zusammenarbeit mit den Rechtsextremisten ein. Alle Details, was vorgefallen ist – und wie vielsagend die Reaktionen darauf waren.

CDU-Abgeordnete nennt bei Viktor Orbáns Kaderschmiede in Ungarn die Brandmauer zur AfD „ein großes Problem“.

Im Publikum saß Alice Weidel – auf der Bühne zeigt sich Saskia Ludwig offen für schrittweise Zusammenarbeit mit der AfD auf regionaler Ebene.

Die CDU-Abgeordnete Saskia Ludwig trat am 1. August auf dem „MCC Feszt“ des Mathias Corvinus Collegium (MCC) in Ungarn auf. Das MCC ist ein rechter ThinkTank, der als Viktor Orbáns Kaderschmiede gilt – und sich als Ziel gesetzt hat, ein internationales Netzwerk rechter Politiker*innen, Influencer*innen und Medienfiguren aufzubauen. 

Orbán & seine deutschen Vorposten – Allianzen der Budapester Kaderschmiede MCC

Ludwig war laut eigener Aussage schon das zweite Mal beim MCC zu Gast – einer mehrtägigen Veranstaltung, bei der auf verschiedenen Bühnen in der 40 Kilometer von Budapest entfernt gelegenen Kleinstadt Esztergom unter freiem Himmel Panels und Vorträge stattfinden, während abends Musiker*innen auftreten. 

Ludwigs Teilnahme ist zunächst einmal wegen des Who is Who der europäischen und internationalen harten Rechten, die sich in Esztergom versammelte, bemerkenswert: von Douglas Murray über Dominic Cummings bis zu Peter Thiel und Viktor Orbán persönlich (der sich noch mit AfD-Chefin Alice Weidel fotografieren ließ).

Saskia Ludwig nahm an einer Podiumsdiskussion teil

Saskia Ludwig nahm an einer Podiumsdiskussion teil, die von Henning Saßenrath (Uni Würzburg und Visiting Fellow des MCC) moderiert wurde – zusammen mit Bence Bauer und Maximilian Tichy. Bauer arbeitete zehn Jahre lang für die Konrad Adenauer Stiftung (KAS) in Ungarn, jetzt ist er Chef des Deutsch-Ungarischen Instituts des MCC. Maximilian Tichy ist Sohn von Roland Tichy, dem Chef des rechten Online-Mediums „Tichys Einblick“, und leitet dort das Videosegment.

In der ersten Reihe saß niemand anderes als Alice Weidel, AfD-Chefin, die unter dem Blazer ein MCC-T-Shirt trug – und Saskia Ludwig vor dem Panel die Hand gab und ein paar freundliche Worte mit ihr wechselte, und die Moderator Saßenrath auch von der Bühne begrüßte (für Weidel gab es vom Publikum deutlich mehr Applaus als für die Panelisten). Neben Weidel saß Frank Lothar Kroll, ein Historiker von der TU Chemnitz – und ehemaliger Visiting Fellow des MCC. 

Tatsächlich ging es in der Podiumsdiskussion unter dem Titel ”Deutschland 2025 – Neue Regierung in unsicherem globalen Fahrwasser” nicht um Weidel selbst, sondern – unter anderem – um ihre Partei. Denn Ex-KAS Mitarbeiter Bence Bauer forderte, die “Brandmauer” zur AfD müsse „eingerissen werden” – “besser früher als später.” Es sei im Eigeninteresse der CDU, sich der Zusammenarbeit mit der AfD nicht zu verweigern, so Bauer – es sei eine “Tragödie für die deutsche Demokratie”, dass man die größte Partei – damit meinte Bauer die AfD – von der politischen Zusammenarbeit ausschließe.

Saskia Ludwig: “Wir haben ein großes Problem mit der Brandmauer”

Saskia Ludwig zeigte sich offen für den Austausch mit Rechtsaußen: Im Osten habe man ein anderes Verständnis von Demokratie, so Ludwig, man rede mit allen – das sei aber noch kein Grund zu sagen, man würde eine Koalition miteinander eingehen. Doch Ludwig fügte hinzu: “Die Inhalte sind wichtig. Und ich nehme an, in Ostdeutschland ist es kein großes Ding zu sagen ‘Wir haben ein großes Problem mit der ‘Brandmauer’.” Das Problem ist für Ludwig nicht, potenziell mit Rechtsextremen zusammenzuarbeiten – sondern die “Brandmauer”, die genau das verhindern soll.

Ludwig vollführte auf dem Panel einen rhetorischen Eiertanz: Sie kann auf dieser Bühne nicht eine Koalition mit der AfD verkünden – aber sie blinkt so deutlich wie nur möglich in diese Richtung. In Westdeutschland sei es leider schwierig, die Brandmauer zu problematisieren, klagt Ludwig: “Aber im Westen Deutschlands ist das ein großes Thema, ich kann das nicht erklären, es ist wie der Teufel, wissen Sie? Wir brauchen eine lange Zeit, um das in der CDU zu diskutieren.” 

Ludwig für graduelle inhaltliche Zusammenarbeit zwischen CDU und AfD auf regionaler Ebene

An dieser Stelle hakte der Moderator nach, fragte, ob er Ludwig richtig verstehe, dass sie glaube, die Antwort zur Zusammenarbeit mit der AfD sei nicht “Schwarz und Weiß”, sondern dass sie dafür sei, mit “flexiblen Mehrheiten” auf regionaler Ebene die Zusammenarbeit zwischen AfD und CDU bei einzelnen Themen zu beginnen. Ludwigs Antwort war etwas verworren, aber doch letztlich eindeutig: “Das wäre vielleicht der erste Schritt dahin. Ich nehme an, wir werden das vielleicht in den nächsten fünf Jahren sehen; eine Koalition kann ich mir im Moment nicht vorstellen, und vielleicht nicht in den nächsten zwei Jahren.” Andersherum muss man daraus schließen, dass Ludwig sich eine Koalition nach diesen zwei Jahren dann durchaus vorstellen könnte. 

Ludwig behauptet unzutreffend, die AfD sei weniger radikal als früher

Nachdem Bence Bauer die CDU zur Veränderung und Zusammenarbeit mit der AfD aufgefordert hatte, fragte Moderator Saßenrath, ob sich denn auch die AfD ändern müsse, nicht nur die CDU. Ludwig behauptete, man könne sehen, dass die AfD sich verändert habe, und das auch in der Zukunft tun werde, “um zu sagen ‘wir wollen eine Koalition eingehen, wir sind nicht so radikal wie in der Vergangenheit’, und ich nehme an, wir werden mehr Schritte wie diese sehen. Ich weiß nicht, ob es genug ist für die CDU. Wir werden sehen.”

Verschwörungstheorien über angeblich steuerfinanzierte „linke NGOs”

Ludwig behauptete, dass linke NGOs „ohne Mandat” versuchen würden, “linke Politik durchzusetzen. Und ich hoffe, mehr meiner Kollegen werden das sehen.” Bence Bauer ergänzte, diese Organisationen würden antidemokratisch agieren – in Ungarn wisse man das. Christdemokraten seien nicht bereit, den „Kulturkampf” um die „Dominanz in der öffentlichen Sphäre” zu kämpfen. „Am Ende sitzen die CDU/CSU und die AfD in einem Boot, aber das müssen sie realisieren”, behauptete Bauer.

Die Frage, ob die Koalition an der Frage der Nominierung von Frauke Brosius-Gersdorf zerbrechen werde, verneinte Ludwig – denn wenn es jetzt Neuwahlen gäbe, “würde das für die SPD und die CDU nicht gut gehen”, so Ludwig. Sie war jedoch bemüht, ihre eigene Rolle in der Kampagne gegen Brosius-Gersdorf herunterzuspielen, auch wenn der Moderator ihr attestierte, “eine erfolgreiche Revolution […] in der eigenen Partei” gegen Brosius-Gersdorf geführt zu haben. Ludwig, die die “Süddeutsche Zeitung” als das “Gesicht der Kampagne” gegen Brosius-Gersdorf bezeichnet hatte, verkündete, das sei nicht zutreffend – sie habe “nur einen Tweet” dazu abgesetzt – was sich allein bei einem Blick auf ihren „X“-Account als unwahr erweist.

So hatte sie nicht nur auf “XStimmung gegen die Richterkandidatin gemacht, sondern mehrere Medienauftritte zu dem Thema absolviert – unter anderem bei Mit-Panelist Maximilian Tichy unter dem Titel „Der verhinderte Staatsstreich”. Dass die Universität Potsdam nach der Verbreitung haltloser Plagiatsvorwürfe gegen Brosius Gersdorf durch Ludwig jetzt bei der Abgeordneten einen bestätigten Anfangsverdacht eines Plagiats bei deren eigener Doktorarbeit sieht, war auf dem Podium kein Thema. 

Ludwig: SPD „zu stark“ in der Koalition

Bence Bauer beklagte derweil, dass die CDU landesweit weiterhin mit Grünen, SPD und Linken abstimmen würde – anstatt einen rechten Block mit der AfD zu bilden. Ludwig ging darauf nicht im Detail ein, sagte allerdings, dass die „SPD sehr stark in dieser Koalition ist, zu stark, nehme ich an.“ Sie gab Bauer implizit Recht, als sie sagte:

“In den letzten fünf oder sechs Jahren sehen wir, dass wir nach den Wahlen eine Rechts-Mitte-Mehrheit in der Gesellschaft haben, aber nicht im Parlament. Und das ist nicht normal. Und Wähler wollen diese linke Politik nicht und mehr, und mehr Wähler gehen zur AfD und das, Bence, da hast du Recht, muss die CDU verstehen.

Das war, bei aller rhetorischen Absicherung, um die sie vorher bemüht war, eine ziemlich eindeutige Aussage dazu, dass die CDU mit der AfD gemeinsame Sache machen müsse. Noch im Dezember 2021 hatte Fraktionschef Merz gesagt: „Wenn irgendjemand von uns die Hand hebt, um mit der AfD zusammenzuarbeiten […], dann steht am nächsten Tag ein Parteiausschlussverfahren an.“

Auf der Bühne im ungarischen Esztergom schmeichelte Bence Bauer vom MCC Saskia Ludwig trotz seiner harschen Kritik an ihrer Partei – die CDU wäre ein „viel besserer Ort”, wenn es in der Führungsriege mehr Menschen wie sie gäbe, sagte er. Moderator Saßenrath fragte Ludwig, ob die CDU-Führung “dankbar [sei], eine selbstbewusste Konservative wie Sie zu haben, um den Koalitionspartner unter Druck zu setzen?” Ludwig lachte und sagte: „Vielleicht in zehn Jahren, ich weiß nicht – noch nicht.“

CDU-Führung distanziert sich 

Momentan scheint die CDU-Führung zumindest nicht begeistert über Ludwigs Auftritt zu sein: Dem Tagesspiegel sagte eine Sprecherin der Fraktionsführung der Union im Bundestag, dass Ludwigs Teilnahme an dieser Veranstaltung „nicht im Auftrag der Fraktion und ohne Wissen der Fraktionsführung” stattgefunden habe – „der Unvereinbarkeitsbeschluss gilt und schließt jede Zusammenarbeit mit der AfD aus. An diesen ist jedes CDU-Mitglied gebunden.“ 

Vor einem Parteiausschlussverfahren muss sich Ludwig jedoch wohl nicht fürchten, zumindest war davon bisher nichts zu hören. So verstärkt sich von außen der Eindruck: Es könnte trotz aller Beteuerungen von Fraktions- und Parteispitze wohl nur noch eine Frage der Zeit (und der steigenden Umfragewerte der AfD) sein, bis die bröckelnden Reste der Brandmauer vollends verschwinden. Mahnende, laute Stimmen aus der Union bleiben die Ausnahme. So warnte der ehemalige Generalsekretär der CDU Ruprecht Polenz auf Bluesky: “Es sind solche vermeintlich Konservativen, die es in der Geschichte immer gebraucht hat, um Faschisten an die Macht zu bringen. Dass sie anschließend selbst unter die Räder kamen, ist kein wirklicher Trost.“ 

Rechte Medien springen Ludwig bei – Strohmannboxen

Während die eigene Fraktionsführung auf Distanz geht, springen Ludwig rechte Medien bei: In der „Welt“ wird über „Kontaktschuld” geklagt, über die „Brandmauer als Sprech- und Denkverbot“. “Nius” wetterte: “Wenn ein freundliches Gespräch für Empörung im linken Milieu sorgt”, bei „Tichys Einblick“ spottet Mit-Panelist Maximilian Tichy über den „verbotenen Händedruck“ und behauptet: „Gute Manieren sollte man nicht nur im Bundestag haben, sondern auch in Ungarn“ – als ginge es hier um private zwischenmenschliche Netiquette und nicht um einen freundlichen öffentlichen Austausch einer Bundestagsabgeordneten mit der Chefin einer rechtsextremen Partei.

Die Behauptung, dass „Linke” (schließt das dann auch die CDU-Fraktionsführung ein?) gute Manieren verteufeln würden, lässt natürlich das aus, was auf der Bühne besprochen wurde – wie deutlich Ludwig nach rechts geblinkt hat – dass sie eine Koalition mit der AfD nur in den nächsten zwei Jahren nicht sieht, dass sie findet, dass die „Brandmauer“ ein Problem sei, dass es eine schrittweise Zusammenarbeit mit der AfD auf lokaler Ebene geben sollte. 

Das ist alles nicht ganz neu: Ludwig hatte bereits in der Vergangenheit für eine Zusammenarbeit mit der AfD geworben. Eine Brandmauer sei „zutiefst undemokratisch”, sagte sie im Januar 2025, das habe sie auch schon „vor Jahren“ gesagt: „Wenn über 50 Prozent Mitte-Rechts wählen, dann muss es auch eine Mitte-Rechts-Regierung geben für die Bürger“, sagte sie damals. Es scheint also, als sei Saskia Ludwig weiterhin auf Bündnis-Kurs mit der AfD – und ihre Partei lässt sie, trotz Distanzierungen, gewähren. 

Artikelbild: Annika Brockschmidt

Passend dazu:

Zur Quelle wechseln

#aufgedeckt #ludwig #passiert #treffen #weidel #wirklich

Annika Brockschmidt

Volksverpetzer

ChatGPT: Wie funktioniert der KI-Chatbot eigentlich wirklich? – Kolumne

Angeblich soll es nicht mehr lange dauern, dann kommt GPT-5. Hört sich unspektakulär an, könnte aber explosiv wirken, denn GPT ist die Software hinter ChatGPT und die fünfte Version könnte den lang ersehnten Qualitätssprung mit sich bringen, der gegenwärtige KI-Schwächen zumindest lindert.

In der Zwischenzeit möchte ich eine Erklärung anbringen, weil im großen KI-Taumel der letzten zweieinhalb Jahre oft eine zentrale Frage zu kurz kam: Wie funktioniert die heutige, generative KI eigentlich wirklich und wo kommt sie her?



Zum Autor


Sascha Lobo, Jahrgang 1975, ist Autor und Strategieberater mit den Schwerpunkten Internet und digitale Technologien. Gemeinsam mit Jule Lobo beschäftigt er sich im Podcast »Feel the News – Was Deutschland bewegt« 

mit aktuellen Debattenthemen.

Künstliche Intelligenz ist ein überraschend altes Konzept. Der britische Mathematiker Alan Turing hatte schon 1950 die Idee denkender Maschinen aufgebracht und sah als Königsdisziplin das maschinelle Verständnis von menschlicher Sprache. Deshalb entwickelte er den Turing-Test: Ein Computer besteht einen Turing-Test, wenn er von durchschnittlich intelligenten Personen in einem Chat für einen Menschen gehalten wird.

Der Begriff allerdings stammt in seiner englischen Form (Artificial Intelligence) von einer Konferenz am 13. Juli 1956 mit dem Namen »Dartmouth Summer Research Project on Artificial Intelligence«. In der Beschreibung des Projekts erklärten die Wissenschaftler: »Die Studie soll von der Vermutung ausgehen, dass prinzipiell jeder Aspekt des Lernens – oder jede andere Eigenschaft der Intelligenz – so genau beschrieben werden kann, dass eine Maschine ihn simulieren kann.«

Die Wahrnehmung von Computern sind Daten

Darauf aufbauend analysierte die Handvoll Fachleute, die sich damit beschäftigten, zunächst das menschliche Denken und Lernen – aus Sicht von Computern, also mit dem Fokus auf Daten. Das war damals viel weniger naheliegend, als es heute scheinen mag. Die etwas vereinfachte, zentrale Erkenntnis: Denken besteht beim Menschen aus Wahrnehmung, Verarbeitung und Interpretation der Wahrnehmungsdaten und Mustererkennung. Daraus kann (manchmal) eine Erkenntnis gewonnen werden – und dann geht es von vorn los.

Übertragen auf Computer: Die Wahrnehmung sind die Daten, mit denen man den Computer füttert. Die Verarbeitung ist die Speicherung, Sortierung und Kategorisierung der Daten. Die Mustererkennung sucht nach Mustern in den Daten, deren Bedeutung bekannt ist. Manchmal folgt darauf eine maschinelle Schlussfolgerung oder eine festgelegte Aktion, zum Beispiel nach dem schlichten Algorithmus »wenn, dann«.


Mehr zum Thema

Künstliche Intelligenz ist eine Art lernende Mustererkennung auf Speed. Dabei geht es vor allem um Wahrscheinlichkeiten: Mit welcher Wahrscheinlichkeit liegt welches Muster vor? Wie kann man die Wahrscheinlichkeit überprüfen oder erhöhen? Und wie kann man mit dieser Erkenntnis das Ergebnis verbessern?

In allen technischen Bereichen sind Computer in den vergangenen Jahrzehnten immer besser geworden: Sie können viel mehr Daten viel schneller auf viel mehr Arten verarbeiten, und sie finden deshalb immer schneller immer komplexere Muster.

Deshalb ist Nvidia übrigens eine so wichtige Firma für künstliche Intelligenz: Sie ist groß geworden mit Grafikchips, für die vergleichsweise viele Daten gleichzeitig verarbeitet werden müssen, damit man eine möglichst flüssige, farbenfrohe, lebensechte Bewegung auf dem Screen sieht. Genau das ist aber auch die Voraussetzung für künstliche Intelligenz.

Unter bestimmten Umständen ist künstliche Intelligenz immer besser

Seit Anfang der Sechzigerjahre setzt sich in der KI-Forschung langsam das Prinzip Machine Learning durch: Maschinen können aus Daten lernen, ohne dass man ihnen jeden einzelnen Schritt vorgibt – mit einem eigenen Lernkonzept. Zum Beispiel, indem man eine berechnete, mögliche Lösung für ein Problem versucht zu überprüfen. Wie gut ist diese mathematische Lösung, etwa ein Verfahren, wie man den schnellsten Weg von A nach B findet? Dann wird eine andere mögliche Lösung berechnet und der Computer prüft, ob sie besser oder schlechter ist. Im Machine Learning wird das so oft vollzogen, bis die Software ein Muster der Verbesserung erkennt. Deshalb wird unter bestimmten Umständen künstliche Intelligenz immer besser.

Für einen großen Durchbruch wie bei ChatGPT reichte das allerdings lange trotzdem nicht, der große Sieg der KI wurde zwar immer mahnend beschworen, der SPIEGEL schrieb 1989 warnend »Die Macht geht auf blöde Apparate über«. Aber kaum eine Technologiehoffnung wurde so oft und so nachhaltig enttäuscht wie der Glaube an eine tatsächlich halbwegs intelligente KI. Im Guten wie im Schlechten.

Anfang der Nullerjahre verändert sich genau das auf interessante Weise. Schon länger gab es eine Schule der KI, die überzeugt war, dass denkende Maschinen etwa so aufgebaut sein müssten wie Gehirne, also als neuronale Netze. Die dazugehörige Variante der Mustererkennung heißt Deep Learning. Dabei werden viele Prozessoren untereinander vernetzt und bilden eine sogenannte Schicht. Darauf wird eine weitere Schicht mit noch mehr vernetzten Prozessoren gelegt, etwa nach dem Muster, wie die Neuronen im Gehirn miteinander verschaltet sind. Darüber wieder eine Schicht und noch eine und noch eine.

Das Sprachmodell, mit dem ChatGPT gestartet ist, GPT-3.5, hat bis zu 96 Schichten. Leider waren die Ergebnisse von neuronalen Netzen trotz des Gehirnkonzepts »normalen« Computern lange unterlegen. Aber mit den immer stärkeren Prozessoren geschah 2012 etwas Überraschendes: Bei einer der wichtigsten Disziplinen, der Bilderkennung, waren neuronale Netze den klassischen Computern plötzlich deutlich überlegen.

Bilderkennung ist eine der klassischen Disziplinen der künstlichen Intelligenz. Sie wird zum Beispiel gebraucht, damit Computer ihre Umwelt besser erkennen können. Und gleichzeitig ist die Bilderkennung der erste Schritt zur Bildherstellung.

Wenn ich eine Katze auf einem Foto erkenne, dann beruht das auf meinem Wissen, welche visuellen Merkmale oder eben Muster auf eine Katze hindeuten und welche nicht: Spitze Ohren, Reißzähne, Fell – ja. Sonnenbrille, Daumen, Hosenanzug – tendenziell nein. Mit diesem Wissen kann man dann auch einfacher ein Katzenbild erschaffen. Deshalb ist die Entdeckung der Fähigkeiten von neuronalen Netzen ein Sprung für die generative künstliche Intelligenz. Dafür hat der KI-Forscher Geoffrey Hinton 2024 den Nobelpreis bekommen.

Das hat bis 2017 immerhin dazu geführt, dass KI Bilddaten so gut erkennen konnte, dass man damit zum Beispiel autonomes Fahren auf den Weg bringen konnte. Mit menschlicher Sprache aber waren neuronale Netze lange zu schnell überfordert. Bis 2017 ein wissenschaftliches Papier den Grundstein für den heutigen Erfolg von künstlicher Intelligenz wie ChatGPT legte: Die »Google Eight«, acht damals bei Google angestellte Wissenschaftler, verfassten ein Papier namens »Attention is all you need« 

. Frühere KI-Modelle analysierten Texte streng sequenziell, Wort für Wort, und stießen damit rasch an die Grenzen des Textverständnisses.


Mehr zum Thema

Im Papier stellten die acht das Prinzip »Transformer« vor (das »T« von ChatGPT kommt daher). Dabei schaut die KI nach den Mustern und Zusammenhängen zwischen den mutmaßlich wichtigsten Worten und kleineren Wortteilen (die nennt man Token) eines Textes. Dann richtet der Computer die Aufmerksamkeit auf diese wichtigen Passagen und deren Zusammenhänge – daher der Titel des Papiers.

Man kann sich das ungefähr vorstellen wie eine Person, die die wichtigsten Begriffe in einem Text unterstreicht. Dann lässt sich auf den ersten Blick viel besser sehen, wovon der Text überhaupt handelt. Und auf diese Weise kann man das wichtigste Verständnismuster für Texte, die Beziehung der Worte untereinander, leichter erkennen.

Mit »Attention is all you need« war der Grundstein von ChatGPT gelegt

Ob direkt nach einem Wort wie »kalt« ein Wort wie »ein«, »die« oder »und« kommt, ist nicht besonders entscheidend. Ob zwei Sätze später aber »Wetter« steht oder »Persönlichkeit« zu lesen ist, prägt die Bedeutung des Textes maßgeblich. Mit »Attention is all you need« und dem Prinzip Transformer war der Grundstein von ChatGPT gelegt. Bis heute steckt der technologische Ansatz der Transformer hinter den bekannten großen Sprachmodellen, also der Software, die zum Beispiel hinter ChatGPT, Claude oder DeepSeek steckt, gewissermaßen der Motor dieser künstlichen Intelligenzen.

Trotzdem war die Entdeckung des Transformers noch immer nicht ausreichend, um eine künstliche Intelligenz zu erschaffen, die zum Beispiel so mühelos den Turing-Test besteht, wie man es heute gewohnt ist. Bis OpenAI, das Unternehmen hinter ChatGPT, durch langwierige und teure Versuche zu einer Entdeckung kommt und 2020 dazu ein wissenschaftliches Papier veröffentlicht: »Scaling Laws for Neural Language Models«  heißt es.

Die einfache, aber revolutionäre Erkenntnis dahinter: Viel hilft viel. Sehr viel hilft sehr viel. Mehr Rechenleistung – und auch mehr deshalb verarbeitbare Daten – verbessert die Qualität von künstlicher Intelligenz deutlich. Allerdings sind die Effekte erst dann wirklich spürbar, wenn nicht nur ein paar Hunderte, sondern Tausende oder sogar Zehntausende Prozessoren gleichzeitig arbeiten. Erst dann werden die vielen Schichten neuronaler Netze so gut in der Mustererkennung, dass es für menschliche Sprache ausreicht.

Aus diesem Grund ist die Entwicklung von großen Sprachmodellen, dem gegenwärtig besten Ansatz für menschenähnliche künstliche Intelligenz, so unfassbar teuer. Die erste, im November 2022 veröffentlichte Version von ChatGPT, wurde mit 10.000 Prozessoren des Modells A100 trainiert, der Stückpreis lag damals bei mehr als 30.000 US-Dollar.

Wie KI die Basics lernt

Die Art des Trainings für große Sprachmodelle, maßgeblich von OpenAI entwickelt, ist ein weiterer Grund für die Qualität heutiger, generativer künstlicher Intelligenz. ChatGPT hat vor allem zwei Arten des Machine Learnings kombiniert: einerseits das »Self-Supervised Learning«, also das selbstüberwachte Lernen. Dabei werden riesige Datenmengen, zum Beispiel Texte aus dem Internet, nach wiederkehrenden Mustern und Wahrscheinlichkeiten durchforstet. Dann werden die erkannten Muster überprüft, etwa, in dem die Maschine sich selbst fragt, wie ein Satz mit welcher Wahrscheinlichkeit zu beenden ist: »Die Katze sitzt auf der« … die größte Wahrscheinlichkeit hätte dann vielleicht »Fensterbank«, danach vielleicht »Mauer« und dann »Bettdecke«. So lernt die KI die Basics.

Anzeige




Sascha Lobo

Die große Vertrauenskrise

Verlag: Kiepenheuer & Witsch

Seitenanzahl: 336

Für 25,00 € kaufen

Preisabfragezeitpunkt

10.07.2025 11.59 Uhr

Keine Gewähr

Bei Amazon bestellen

Bei Thalia bestellen

Bei Genialokal bestellen

Bei Hugendubel bestellen

Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Danach kommt die zweite, wichtige Art des Lernens, das »Reinforcement Learning«, also das bestärkende Lernen. Dabei wird oft menschliches Feedback eingebaut, also Leute, die die verschiedenen Lösungsvorschläge der Maschine bewerten – und dann die guten Lösungen belohnen und die schlechten bestrafen (reinforcement). Mit der richtigen Kombination dieser beiden Lernansätze schließlich kommt man so weit, dass es für die Veröffentlichung von ChatGPT am 30. November 2022 gereicht hat, also dem Produkt, das den heutigen Hype wie Siegeszug von KI angestoßen hat.

Bis heute hört man oft, dass generative KI einfach nur die Wahrscheinlichkeit berechnet, mit der auf ein Wort ein anderes folgt, wenn der Kontext dazu geliefert wird. Als »Stochastische Wahrheit« wird generative KI auch von Fachleuten oft verspottet, ein bekanntes Zitat der Linguistin und KI-Kritikerin Emily Bender lautet: »Large language models are stochastic parrots.« (Große Sprachmodelle sind stochastische Papageien).

In vielen Abwertungen der KI steckt eine Spur Hybris

Das soll an den Grundfesten des Prinzips künstliche Intelligenz rütteln, weil es unterstellt: Da ist nichts intelligent, der Sinn wird gar nicht ernsthaft maschinell verstanden, das Verständnis nur nachgeahmt. Das ist technisch betrachtet zwar wahrscheinlich weitgehend korrekt, obwohl man argumentieren könnte, dass der Mensch künstliche Intelligenz gar nicht so tiefgreifend versteht, um das wirklich beurteilen zu können.

Aber eine andere Entgegnung erscheint mir zielführender, erst recht kurz vor einem mutmaßlichen Durchbruch mit GPT-5. Denn dass die Maschine auch im Jahr 2025 Verständnis und Intelligenz nur sehr geschickt nachahmt, mag sein. Aber das Denken des Menschen funktioniert verdammt ähnlich. Und so steckt in vielen allzu heftigen Abwertungen der künstlichen Intelligenz zumindest eine Spur der Hybris, dass der Mensch noch stets überlegen sei. Was mir angesichts der gegenwärtigen Entwicklung doch arg mutig erscheint. Übermutig beinahe.

Hier weiter lesen…

#chatbot #chatgpt #eigentlich #funktioniert #kolumne #wirklich

Thema: ChatGPT

Deutschlands führende Nachrichtenseite. Alles Wichtige aus Politik, Wirtschaft, Sport, Kultur, Wissenschaft, Technik und mehr.

DER SPIEGEL

KI: Wie funktioniert eigentlich ChatGPT wirklich? – Kolumne

Angeblich soll es nicht mehr lange dauern, dann kommt GPT-5. Hört sich unspektakulär an, könnte aber explosiv wirken, denn GPT ist die Software hinter ChatGPT und die fünfte Version könnte den lang ersehnten Qualitätssprung mit sich bringen, der gegenwärtige KI-Schwächen zumindest lindert.

In der Zwischenzeit möchte ich eine Erklärung anbringen, weil im großen KI-Taumel der letzten zweieinhalb Jahre oft eine zentrale Frage zu kurz kam: Wie funktioniert die heutige, generative KI eigentlich wirklich und wo kommt sie her?



Zum Autor


Sascha Lobo, Jahrgang 1975, ist Autor und Strategieberater mit den Schwerpunkten Internet und digitale Technologien. Gemeinsam mit Jule Lobo beschäftigt er sich im Podcast »Feel the News – Was Deutschland bewegt« 

mit aktuellen Debattenthemen.

Künstliche Intelligenz ist ein überraschend altes Konzept. Der britische Mathematiker Alan Turing hatte schon 1950 die Idee denkender Maschinen aufgebracht und sah als Königsdisziplin das maschinelle Verständnis von menschlicher Sprache. Deshalb entwickelte er den Turing-Test: Ein Computer besteht einen Turing-Test, wenn er von durchschnittlich intelligenten Personen in einem Chat für einen Menschen gehalten wird.

Der Begriff allerdings stammt in seiner englischen Form (Artificial Intelligence) von einer Konferenz am 13. Juli 1956 mit dem Namen »Dartmouth Summer Research Project on Artificial Intelligence«. In der Beschreibung des Projekts erklärten die Wissenschaftler: »Die Studie soll von der Vermutung ausgehen, dass prinzipiell jeder Aspekt des Lernens – oder jede andere Eigenschaft der Intelligenz – so genau beschrieben werden kann, dass eine Maschine ihn simulieren kann.«

Die Wahrnehmung von Computern sind Daten

Darauf aufbauend analysierte die Handvoll Fachleute, die sich damit beschäftigten, zunächst das menschliche Denken und Lernen – aus Sicht von Computern, also mit dem Fokus auf Daten. Das war damals viel weniger nahe liegend, als es heute scheinen mag. Die etwas, vereinfachte, zentrale Erkenntnis: Denken besteht beim Menschen aus Wahrnehmung, Verarbeitung und Interpretation der Wahrnehmungsdaten und Mustererkennung. Daraus kann (manchmal) eine Erkenntnis gewonnen werden – und dann geht es von vorn los.

Übertragen auf Computer: Die Wahrnehmung sind die Daten, mit denen man den Computer füttert. Die Verarbeitung ist die Speicherung, Sortierung und Kategorisierung der Daten. Die Mustererkennung sucht nach Mustern in den Daten, deren Bedeutung bekannt ist. Manchmal folgt darauf eine maschinelle Schlussfolgerung oder eine festgelegte Aktion, zum Beispiel nach dem schlichten Algorithmus »wenn, dann«.


Mehr zum Thema

Künstliche Intelligenz ist eine Art lernende Mustererkennung auf Speed. Dabei geht es vor allem um Wahrscheinlichkeiten: Mit welcher Wahrscheinlichkeit liegt welches Muster vor? Wie kann man die Wahrscheinlichkeit überprüfen oder erhöhen? Und wie kann man mit dieser Erkenntnis das Ergebnis verbessern?

In allen technischen Bereichen sind Computer in den vergangenen Jahrzehnten immer besser geworden: Sie können viel mehr Daten viel schneller auf viel mehr Arten verarbeiten, und sie finden deshalb immer schneller immer komplexere Muster.

Deshalb ist Nvidia übrigens eine so wichtige Firma für künstliche Intelligenz: Sie ist groß geworden mit Grafikchips, für die vergleichsweise viele Daten gleichzeitig verarbeitet werden müssen, damit man eine möglichst flüssige, farbenfrohe, lebensechte Bewegung auf dem Screen sieht. Genau das ist aber auch die Voraussetzung für künstliche Intelligenz.

Unter bestimmten Umständen ist künstliche Intelligenz immer besser

Seit Anfang der Sechzigerjahre setzt sich in der KI-Forschung langsam das Prinzip Machine Learning durch: Maschinen können aus Daten lernen, ohne dass man ihnen jeden einzelnen Schritt vorgibt – mit einem eigenen Lernkonzept. Zum Beispiel, indem man eine berechnete, mögliche Lösung für ein Problem versucht zu überprüfen. Wie gut ist diese mathematische Lösung, etwa ein Verfahren, wie man den schnellsten Weg von A nach B findet? Dann wird eine andere mögliche Lösung berechnet und der Computer prüft, ob sie besser oder schlechter ist. Im Machine Learning wird das so oft vollzogen, bis die Software ein Muster der Verbesserung erkennt. Deshalb wird unter bestimmten Umständen künstliche Intelligenz immer besser.

Für einen großen Durchbruch wie bei ChatGPT reichte das allerdings lange trotzdem nicht, der große Sieg der KI wurde zwar immer mahnend beschworen, der SPIEGEL schrieb 1989 warnend »Die Macht geht auf blöde Apparate über«. Aber kaum eine Technologiehoffnung wurde so oft und so nachhaltig enttäuscht wie der Glaube an eine tatsächlich halbwegs intelligente KI. Im Guten wie im Schlechten.

Anfang der Nullerjahre verändert sich genau das auf interessante Weise. Schon länger gab es eine Schule der KI, die überzeugt war, dass denkende Maschinen etwa so aufgebaut sein müssten wie Gehirne, also als neuronale Netze. Die dazugehörige Variante der Mustererkennung heißt Deep Learning. Dabei werden viele Prozessoren untereinander vernetzt und bilden eine sogenannte Schicht. Darauf wird eine weitere Schicht mit noch mehr vernetzten Prozessoren gelegt, etwa nach dem Muster, wie die Neuronen im Gehirn miteinander verschaltet sind. Darüber wieder eine Schicht und noch eine und noch eine.

Das Sprachmodell, mit dem ChatGPT gestartet ist, GPT-3.5, hat bis zu 96 Schichten. Leider waren die Ergebnisse von neuronalen Netzen trotz des Gehirnkonzepts »normalen« Computern lange unterlegen. Aber mit den immer stärkeren Prozessoren geschah 2012 etwas Überraschendes: Bei einer der wichtigsten Disziplinen, der Bilderkennung, waren neuronale Netze den klassischen Computern plötzlich deutlich überlegen.

Bilderkennung ist eine der klassischen Disziplinen der künstlichen Intelligenz. Sie wird zum Beispiel gebraucht, damit Computer ihre Umwelt besser erkennen können. Und gleichzeitig ist die Bilderkennung der erste Schritt zur Bildherstellung.

Wenn ich eine Katze auf einem Foto erkenne, dann beruht das auf meinem Wissen, welche visuellen Merkmale oder eben Muster auf eine Katze hindeuten und welche nicht: Spitze Ohren, Reißzähne, Fell – ja. Sonnenbrille, Daumen, Hosenanzug – tendenziell nein. Mit diesem Wissen kann man dann auch einfacher ein Katzenbild erschaffen. Deshalb ist die Entdeckung der Fähigkeiten von neuronalen Netzen ein Sprung für die generative künstliche Intelligenz. Dafür hat der KI-Forscher Geoffrey Hinton 2024 den Nobelpreis bekommen.

Das hat bis 2017 immerhin dazu geführt, dass KI Bilddaten so gut erkennen konnte, dass man damit zum Beispiel autonomes Fahren auf den Weg bringen konnte. Mit menschlicher Sprache aber waren neuronale Netze lange zu schnell überfordert. Bis 2017 ein wissenschaftliches Papier den Grundstein für den heutigen Erfolg von künstlicher Intelligenz wie ChatGPT legte: Die »Google Eight«, acht damals bei Google angestellte Wissenschaftler verfassten ein Papier namens »Attention is all you need« 

. Frühere KI-Modelle analysierten Texte streng sequenziell, Wort für Wort, und stießen damit rasch an die Grenzen des Textverständnisses.


Mehr zum Thema

Im Papier stellten die acht das Prinzip »Transformer« vor (das »T« von ChatGPT kommt daher). Dabei schaut die KI nach den Mustern und Zusammenhängen zwischen den mutmaßlich wichtigsten Worten und kleineren Wortteilen (die nennt man Token) eines Textes. Dann richtet der Computer die Aufmerksamkeit auf diese wichtigen Passagen und deren Zusammenhänge – daher der Titel des Papiers.

Man kann sich das ungefähr vorstellen wie eine Person, die die wichtigsten Begriffe in einem Text unterstreicht. Dann lässt sich auf den ersten Blick viel besser sehen, wovon der Text überhaupt handelt. Und auf diese Weise kann man das wichtigste Verständnismuster für Texte, die Beziehung der Worte untereinander, leichter erkennen.

Mit »Attention is all you need« war der Grundstein von ChatGPT gelegt

Ob direkt nach einem Wort wie »kalt« ein Wort wie »ein«, »die« oder »und« kommt, ist nicht besonders entscheidend. Ob zwei Sätze später aber »Wetter« steht oder »Persönlichkeit« zu lesen ist, prägt die Bedeutung des Textes maßgeblich. Mit »Attention is all you need« und dem Prinzip Transformer war der Grundstein von ChatGPT gelegt. Bis heute steckt der technologische Ansatz der Transformer hinter den bekannten großen Sprachmodellen, also der Software, die zum Beispiel hinter ChatGPT, Claude oder DeepSeek steckt, gewissermaßen der Motor dieser künstlichen Intelligenzen.

Trotzdem war die Entdeckung des Transformers noch immer nicht ausreichend, um eine künstliche Intelligenz zu erschaffen, die zum Beispiel so mühelos den Turing-Test besteht, wie man es heute gewohnt ist. Bis OpenAI, das Unternehmen hinter ChatGPT, durch langwierige und teure Versuche zu einer Entdeckung kommt und 2020 dazu ein wissenschaftliches Papier veröffentlicht: »Scaling Laws for Neural Language Models«  heißt es.

Die einfache, aber revolutionäre Erkenntnis dahinter: Viel hilft viel. Sehr viel hilft sehr viel. Mehr Rechenleistung – und auch mehr deshalb verarbeitbare Daten – verbessert die Qualität von künstlicher Intelligenz deutlich. Allerdings sind die Effekte erst dann wirklich spürbar, wenn nicht nur ein paar Hunderte, sondern Tausende oder sogar Zehntausende Prozessoren gleichzeitig arbeiten. Erst dann werden die vielen Schichten neuronaler Netze so gut in der Mustererkennung, dass es für menschliche Sprache ausreicht.

Aus diesem Grund ist die Entwicklung von großen Sprachmodellen, dem gegenwärtig besten Ansatz für menschenähnliche künstliche Intelligenz, so unfassbar teuer. Die erste, im November 2022 veröffentlichte Version von ChatGPT, wurde mit 10.000 Prozessoren des Modells A100 trainiert, der Stückpreis lag damals bei mehr als 30.000 US-Dollar.

Wie KI die Basics lernt

Die Art des Trainings für große Sprachmodelle, maßgeblich von OpenAI entwickelt, ist ein weiterer Grund für die Qualität heutiger, generativer künstlicher Intelligenz. ChatGPT hat vor allem zwei Arten des Machine Learnings kombiniert: einerseits das »Self-Supervised Learning«, also das selbstüberwachte Lernen. Dabei werden riesige Datenmengen, zum Beispiel Texte aus dem Internet, nach wiederkehrenden Mustern und Wahrscheinlichkeiten durchforstet. Dann werden die erkannten Muster überprüft, etwa, in dem die Maschine sich selbst fragt, wie ein Satz mit welcher Wahrscheinlichkeit zu beenden ist: »Die Katze sitzt auf der« … die größte Wahrscheinlichkeit hätte dann vielleicht »Fensterbank«, danach vielleicht »Mauer« und dann »Bettdecke«. So lernt die KI die Basics.

Anzeige




Sascha Lobo

Die große Vertrauenskrise

Verlag: Kiepenheuer & Witsch

Seitenanzahl: 336

Für 25,00 € kaufen

Preisabfragezeitpunkt

09.07.2025 23.56 Uhr

Keine Gewähr

Bei Amazon bestellen

Bei Thalia bestellen

Bei Genialokal bestellen

Bei Hugendubel bestellen

Produktbesprechungen erfolgen rein redaktionell und unabhängig. Über die sogenannten Affiliate-Links oben erhalten wir beim Kauf in der Regel eine Provision vom Händler. Mehr Informationen dazu hier

Danach kommt die zweite, wichtige Art des Lernens, das »Reinforcement Learning«, also das bestärkende Lernen. Dabei wird oft menschliches Feedback eingebaut, also Leute, die die verschiedenen Lösungsvorschläge der Maschine bewerten – und dann die guten Lösungen belohnen und die schlechten bestrafen (reinforcement). Mit der richtigen Kombination dieser beiden Lernansätze schließlich kommt man so weit, dass es für die Veröffentlichung von ChatGPT am 30. November 2022 gereicht hat, also dem Produkt, das den heutigen Hype wie Siegeszug von KI angestoßen hat.

Bis heute hört man oft, dass generative KI einfach nur die Wahrscheinlichkeit berechnet, mit der auf ein Wort ein anderes folgt, wenn der Kontext dazu geliefert wird. Als »Stochastische Wahrheit« wird generative KI auch von Fachleuten oft verspottet, ein bekanntes Zitat der Linguistin und KI-Kritikerin Emily Bender lautet: »Large language models are stochastic parrots.« (Große Sprachmodelle sind stochastische Papageien).

In vielen Abwertungen der KI steckt eine Spur Hybris

Das soll an den Grundfesten des Prinzips künstliche Intelligenz rütteln, weil es unterstellt: Da ist nichts intelligent, der Sinn wird gar nicht ernsthaft maschinell verstanden, das Verständnis nur nachgeahmt. Das ist technisch betrachtet zwar wahrscheinlich weitgehend korrekt, obwohl man argumentieren könnte, dass der Mensch künstliche Intelligenz gar nicht so tiefgreifend versteht, um das wirklich beurteilen zu können.

Aber eine andere Entgegnung erscheint mir zielführender, erst recht kurz vor einem mutmaßlichen Durchbruch mit GPT-5. Denn dass die Maschine auch im Jahr 2025 Verständnis und Intelligenz nur sehr geschickt nachahmt, mag sein. Aber das Denken des Menschen funktioniert verdammt ähnlich. Und so steckt in vielen allzu heftigen Abwertungen der künstlichen Intelligenz zumindest eine Spur der Hybris, dass der Mensch noch stets überlegen sei. Was mir angesichts der gegenwärtigen Entwicklung doch arg mutig erscheint. Übermutig beinahe.

Hier weiter lesen…

#chatgpt #eigentlich #funktioniert #kolumne #wirklich

Thema: ChatGPT

Deutschlands führende Nachrichtenseite. Alles Wichtige aus Politik, Wirtschaft, Sport, Kultur, Wissenschaft, Technik und mehr.

DER SPIEGEL

Politische Mordangebote sind so aus England ÖFFENTLICH nicht bekannt..
Trotz SPAREN
Sparzwang ?

In Deutschland trauen sich sogar irgendwelche #HALBSTARKEN Moderatoren Menschen oder auch Journalismus zu drohen - wenn man nicht die GLEICHE SICHT hat
(wie sie mit einer Nebentätigkeit bei irgendeinem NICHT-ZIVILEN Dienst)

Was heißt das denn ?

War die ALT-BRD jemals #wirklich ZIVIL ?
Politische Gegner mit Ermordung bedrohen ist doch #Militärdiktatur ?
Niveau Sadam H. und Co ?
Ist das GER ?

(Nau) Wie homophob sind diese Frauen wirklich?

Sind nur Männer schwulenfeindlich eingestellt? Weit gefehlt. Unsere Kolumnistin Verena Brunschweiger schreibt, wie es wirklich ist.

Direktlink

#diese #frauen #homophob #wirklich

Wo ist Wüst, wenn es wirklich wichtig wird für NRW

Auf Antrag der SPD-Fraktion hat der Landtag von Nordrhein-Westfalen heute in einer Aktuellen Stunde auch über die Krise bei Thyssenkrupp diskutiert. Ministerpräsident Wüst fehlte bei der Debatte entschuldigt und gab zeitgleich eine Pressekonferenz in Berlin mit Brad Smith. Hierzu erklären Jochen Ott, Vorsitzender der SPD-Fraktion, und Sarah Philipp, stellvertretende Fraktionsvorsitzende:

Jochen Ott:

„Wo ist Wüst, wenn es wirklich wichtig wird für NRW? Bei Thyssenkrupp stehen 11.000 Arbeitsplätze auf der Kippe. Aber seit Tagen und Wochen hören wir nichts vom Ministerpräsidenten dazu. Wo ist er, wenn ein Konzern die Sozialpartnerschaft in Frage stellt? Wo ist der Ministerpräsident, wenn es gilt, die zur Identität Nordrhein-Westfalens zählende Mitbestimmung zu verteidigen? Man sieht ihn nicht, er ist regelrecht abgetaucht. Scheinbar hat Hendrik Wüst Thyssenkrupp schon abgeschrieben und zu den Akten gelegt. Das ist ein Schlag ins Gesicht der tausend betroffenen Mitarbeiterinnen und Mitarbeiter sowie deren Familien, die um ihre Jobs und ihre Zukunft bangen. Eins ist klar: Johannes Rau oder Hannelore Kraft wäre das nicht passiert! Sie hätten sich nicht aus der Verantwortung gestohlen und tatenlos dabei zugeschaut, wie ein Aushängeschild unseres Landes nach und nach seine Strahlkraft verliert.“

Sarah Philipp:

„Während in Duisburg tausende Menschen um ihre Jobs fürchten, während ein Traditionskonzern zerlegt wird, während ganze Stadtteile in Unsicherheit stürzen – schweigt der Ministerpräsident. Er hat geschwiegen zum Einstieg des Investors Kretinsky. Er hat geschwiegen zum geplanten Jobabbau. Und er schweigt auch jetzt, wenn es um die Zukunft von Thyssenkrupp und unseres Stahlstandorts geht. Immer wenn es konkret wird, duckt er sich weg. Das hat mit Regieren nichts zu tun. Das ist eine politische Kapitulation. In einer Lage wie dieser braucht NRW keinen Schönwetter-Ministerpräsidenten. Wir brauchen endlich einen Macher – der sich um einen Sitz im Aufsichtsrat für das Land kümmert, der sich mit dem Bund für eine staatliche Beteiligung stark macht und der ,Stopp‘ sagt zu den Plänen für den Stellenabbau. Wir brauchen einen Ministerpräsidenten, der sich vor die Beschäftigten stellt – und sich nicht hinter der Staatskanzlei versteckt. “

Hier weiter lesen…

#wichtig #wirklich

1933 to 2025 #NAZIS nach 92 Jahren wieder da 🤬 Sie waren #nie #wirklich #weg❗️🤬🧠💩

Wirtschaft in Deutschland: Warum unser Wohlstand wirklich gefährdet ist – Kolumne

von 4 Artikeln verfügbar


Die nächsten 4 freien Artikel stehen Ihnen am Uhr zur Verfügung. Trotzdem weiterlesen? Jetzt zum Premium-Abo upgraden!

Premium-Abo

Exklusiv für Sie!

€ 5,99 pro Woche Vierwöchentlich abgerechnet und kündbar.
  • Starter-Abonnent:innen sparen bis zur nächsten Abrechnung.

  • Alle Artikel auf SPIEGEL.de und App lesen

  • Wöchentlich die digitale Ausgabe des SPIEGEL inkl. E-Paper (PDF), Digital-Archiv und S+-Newsletter


Jetzt upgraden

Hier weiter lesen…

#deutschland #gefahrdet #unser #warum #wirklich #wirtschaft #wohlstand

SPIEGEL+

SPIEGEL