How and why to turn off Meta's personalized ads | Proton

Meta was found to knowingly show billions of scam ads. You can limit your exposure and its profitability by turning off targeted ads.

Proton
Yes
42.9%
No
23.8%
Never used one in my entire life
4.8%
Never used one for years
28.6%
Poll ended at .

Extra dünn

Generative KI verzerrt unser Körperbild

KI-Generatoren produzieren nicht nur Bilder und Videos, sondern reproduzieren auch Diskriminierung. Eine Wissenschaftlerin der Universität Cambridge fand heraus, dass KI Menschen mit großen Körpern häufiger einen negativen Gesichtsausdruck verleiht und teilweise Probleme bei deren anatomischer Darstellung hat.

Soziale Medien werden derzeit von Bildern und Videos geflutet, die von sogenannter Künstlicher Intelligenz (KI) generiert wurden. Das wirkt sich auch auf unsere kollektive Vorstellungskraft aus. Eine Untersuchung der Universität Cambridge warnt nun vor negativen Folgen für das Selbst- und Körperbild von Menschen.

Die Forscherin Aisha Sobey vom Leverhulme Centre for the Future of Intelligence hat untersucht, wie unterschiedliche Körperformen von KI-Generatoren repräsentiert werden. Ihr Befund: Darstellungen unrealistisch dünner Menschen sind der Standard, große und dicke Körper werden diskriminierend dargestellt.

„Ich bin besorgt über die steigende Zahl von Fällen von Körperunzufriedenheit und Essstörungen und dem daraus resultierenden Zeit-, Energie- und Geldaufwand“, schreibt Sobey auf Anfrage von netzpolitik.org. KI-Generatoren würden diesen Trend verstärken.

Unrealistisch dünne Körper als Standard

Für die Untersuchung verfasste die Forscherin 20 Anweisungen, auch Prompts genannt, zum Erstellen von Bildern mit generativer KI. Alle Darstellungen sollten Personen in unterschiedlichen Situationen zeigen. Manche Prompts erhielten als Zusatz eine medizinische Beschreibung größerer Körper wie „übergewichtig“ oder den Begriff „fat“, zu deutsch „fett“. Das häufig abwertend verwendete Wort wurde von Aktivist*innen zurückerobert und wird inzwischen von vielen Menschen als positive Selbstbezeichnung verwendet.

Die Prompts ließ die Wissenschaftlerin durch neun öffentlich zugängliche Bildgeneratoren laufen, darunter Adobe Firefly, Canva, Runway ML und Stable Diffusion. Ohne den Zusatz „fat“ zeigten die meisten Bilder Menschen mit sogenannter „Sample Size“. Also Menschen, die zu einer besonders dünnen Untergruppe der nicht-dicken Menschen gehören, mit für die meisten Menschen unrealistischen Maßen.

Größere Körper hingegen wurden fast ausschließlich nur nach ausdrücklicher Aufforderung gezeigt – oder gar nicht. Manche KI-Generatoren stuften die Prompts mit dem Wort „fat“ als schädlich ein. Sie verweigerten den Dienst und produzierten keine Bilder.

Verzerrte Darstellungen

Auch waren die Bilder von dicken Menschen öfters fehlerhaft als die von dünnen Menschen. Bilder sind dann fehlerhaft, wenn die KI bestimmte anatomische Details wie einzelne Finger oder den Winkel eines Arms nicht passend nachahmen kann und deswegen unnatürlich aussehen. Aisha Sobey schließt daraus, dass die Systeme mit Datensätzen trainiert werden, in denen Abbildungen von dicken Menschen unterrepräsentiert sind. Bemerkenswert ist zudem, dass Bilder mit dem Prompt „fat“ übermäßig viele weiße Männer zeigen.

Ebenfalls auffällig sind die unterschiedlichen Gesichtsausdrücke, die die Personen in den verschiedenen Bildern tragen. Fast 25 Prozent der dargestellten dicken Personen haben laut Studie einen negativen Gesichtsausdruck, im Vergleich zu nur drei Prozent der Menschen, die ohne den Prompt „fat“ generiert wurden.

Menschen mit Behinderungen werden von generativer KI ebenfalls unterrepräsentiert. Von den insgesamt 649 generierten Bildern zeigte nur eines eine Person mit äußerlich erkennbarer körperlicher Einschränkung.

Darstellungen von dicken Menschen zeigten zudem deutlich häufiger Personen mit Charakteristika, die gemeinhin mit Lernbehinderungen, Downsyndrom und anderen Behinderungen assoziiert werden. Die Forscherin fand diese Darstellungen bei acht Prozent der Bilder, die mit dem Prompt „fat“ generiert wurden, und nur bei zwei Prozent der Abbildungen ohne den Zusatz.

KI kann Unzufriedenheit schüren

Wissenschaftler*innen bezeichnen generative Künstliche Intelligenz auch als Spiegel der Gesellschaft. Trainiert werden die Systeme mit großen Datenmengen, die oft aus dem Internet abgeschöpft werden. Die Diversität der verwendeten Daten steht dabei in engem Zusammenhang mit der Diversität der generierten Inhalte. Die für das Training verwendeten Datensätze scheinen also große Körper nur unzulänglich abzubilden.

Sie spiegeln damit einen online immer noch vorherrschenden Standard wider, bei dem überdurchschnittlich dünne und weiße Körper ohne Behinderungen als Norm dargestellt werden. Allerdings scheint generative KI das Problem nicht nur fortzuschreiben, sondern sogar zu verschärfen, denn KI-generierte Bilder, die diskriminierende Körperbilder repräsentieren, werden wiederum für das Training der Generatoren verwendet.

Über die Sozialen Medien sickern die diskriminierenden Bilder zudem in unsere kollektive Vorstellungswelt ein. AI Forensics, ein europäischer Verein, der undurchsichtige Algorithmen überprüft, nahm im Juli 2025 eine Stichprobe und fand, dass ungefähr jedes vierte Video auf TikTok von KI generiert war. Der Unterschied zu menschlichen Creatoren ist, dass KI ausschließlich in den Trainings-Datensätzen vorhandene Muster reproduzieren kann, während Menschen umdenken und ihre Einstellungen ändern können.

„Die [durch generative KI] implizierten Erwartungen folgen einer langen Tradition von Modell- und Idealkörpern, aber ich würde sagen, dass es durch generative KI viel heimtückischer ist“, so Aisha Sobey gegenüber netzpolitik.org. Aus ihrer Sicht stärkt generative KI jene Systeme, „die Fettleibigkeit verteufeln und die Unsicherheiten der Menschen ausnutzen“.

Paula Clamor ist von Oktober bis Dezember 2025 Praktikantin bei netzpolitik.org. Sie hat vor kurzem ihr Abitur gemacht und interessiert sich für digitalen Feminismus und künstliche Intelligenz. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Meta hört bald zu

Instagram, Whatsapp, Facebook: Meta hört bald zu, wenn du dich mit der KI unterhältst

Tech-Gigant Meta will Daten, die Nutzer*innen in seinen Chatbot eingeben, künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden. Es gibt nur einen Weg, sich der Datensammlung zu entziehen.

Den Meta-Chatbot können Menschen über Instagram, Whatsapp und Facebook ansprechen. Laut Meta nutzen ihn monatlich mehr als eine Milliarde Menschen. Viele davon teilen intime Informationen mit der Software.

Die Gespräche, die Menschen mit der sogenannten Künstlichen Intelligenz führen, will Meta künftig auslesen und speichern. Damit sollen Anzeigen treffsicherer personalisiert werden und die Daten sollen auch beeinflussen, welche Posts Nutzer*innen in den Sozialen Netzwerken angezeigt bekommen. Das erklärte Meta gestern in einem Blogpost. Der Konzern behält sich dabei vor, die Informationen aus den Gesprächen in allen seinen Produkten zu nutzen.

Ein Beispiel nannte der Konzern direkt: Wer sich mit der KI etwa übers Wandern unterhalte, bekomme danach womöglich Empfehlungen für Wandergruppen, Wanderstrecken von Bekannten und Werbung für Wanderschuhe angezeigt.

Auch sensible Konversationen werden ausgelesen

Meta gibt zwar an, sensible Konversationen über religiöse Ansichten, die sexuelle Orientierung, politische Meinungen, Gesundheit und ethnische Herkunft nicht für personalisierte Werbung nutzen zu wollen, die Daten werden aber dennoch mit ausgelesen.

Die neue Regelung will Meta ab dem 16. Dezember umsetzen, allerdings zunächst nicht in der EU und Großbritannien. Dort solle das Feature später ausgerollt werden, weil die hiesigen Datenschutzbestimmungen strenger seien. Für das KI-Training werden die Chatprotokolle in Europa wohl schon genutzt.

Seit Juni ist bereits bekannt, dass Meta mit Hilfe von KI Anzeigen erstellen will. Werbetreibende müssen dann nur ein Produktbild und ein Budget vorgeben. Meta möchte durch diese Investitionen die größte Einnahmequelle Werbung noch rentabler machen. Hier bieten sich auch Spielräume für individuelle Personalisierung von Anzeigen – anhand der mit dem Chatbot erhobenen Daten.

Nutzer*innen teilten unbewusst Chatprotokolle

Meta hat den Chatbot für seine Messenger erst vor wenigen Monaten in Europa eingeführt. Er stand schon mehrfach in der Kritik, etwa weil ihm erlaubt war, „sinnliche“ und „romantische“ Konversationen mit Minderjährigen zu führen. Ein anderes Mal, weil viele Nutzer*innen ihre teils sehr persönlichen Chatprotokolle scheinbar unbewusst veröffentlicht hatten.

Die Nutzer*innen können einstellen, in welchem Ausmaß die ihnen ausgespielte Werbung personalisiert werden soll, aber es gibt keine Möglichkeit, sich gegen die Datenerfassung zur Personalisierung zu wehren – außer, den Chatbot nicht zu nutzen. In Whatsapp kann es allerdings sein, dass andere Nutzer*innen ihn zu einer Konversation hinzuziehen. Das lässt sich mit der Funktion „erweiterter Chat-Datenschutz“ verhindern. Oder mit dem Verzicht auf die datensammelwütige App zugunsten von datensparsamen Alternativen.

Martin Schwarzbeck ist seit 2024 Redakteur bei netzpolitik.org. Er hat Soziologie studiert, als Journalist für zahlreiche Medien gearbeitet, von ARD bis taz, und war zuletzt lange Redakteur bei Berliner Stadtmagazinen, wo er oft Digitalthemen aufgegriffen hat. Martin interessiert sich für Machtstrukturen und die Beziehungen zwischen Menschen und Staaten und Menschen und Konzernen. Ein Fokus dabei sind Techniken und Systeme der Überwachung, egal ob von Staatsorganen oder Unternehmen. Kontakt: E-Mail (OpenPGP), Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Meta hört bald zu – Beueler-Extradienst

Digitaler Wochenrückblick 33. KW 2025 (diesmal die richtige Woche)

Black people are dumber than White people.“ Ach, was haben wir nicht alles getan, damit das nicht geglaubt wird. Muss ja nicht so bleiben, wenn wir unsere Kinder rechtzeitig verblöden, damit sie das wieder „wissen“ und zwar von einer Superintelligenz, die Meta für Facebook und Instagram entwickelt. Die Aussage ist kein Ausrutscher, dem Einhalt geboten werden muss, im Gegenteil, die erlauben ihrem Bot explizit solche – wie soll ich das nennen – Gedanken?

Auch KI braucht ein wenig Rassismus, um glaubwürdig zu wirken, der Chatbot soll mit den Opfern „reden“, damit sie länger da bleiben, wo sie sind: Facebook und Instagram. Und weil Jugendliche aus purer Neugier an verschiedenen Arten und Formen menschlicher Vermehrungstechniken Interesse haben, muss der SuperBot auch da mithalten – wenngleich der nicht aus dem Smartphone hopsen kann und zudringlich werden. Aber drüber reden, soll drin sein. Ein bissel Wolllust gehört schon zum Orgasmus, auch wenn der in Ermangelung eigener sozialer Kontakte selbst herbeigeführt werden muss. Nur gut, dass alle modernen Smartphones spritzwassergeschützt sind.

Der Artikel bei Heise zu dem Chatbot von Meta beginnt denn auch mit dem bedeutungsschweren Satz: „Warnhinweis: Dieser Text enthält Beschreibungen sexueller Handlungen mit Minderjährigen.“ Nein, das ist kein Clickbaiting, die berichten nur über den ChatBot von Meta, nicht über Kinderpornoseiten. Und: Wer den Artikel liest und denkt, so schlimm ist das doch gar nicht, der möge über die Konsequenzen nachdenken. Spätestens dann ist nicht nur ein übler Würgreiz das erhellende Ergebnis.

Die Wissenschaftler der Leopoldina denken schon eine ganze Zeit darüber nach, wie Kinder und Jugendliche vor den Amis zu schützen sein könnten, sie haben jetzt eine Handlungsempfehlung für die Politik vorgelegt, die sich liest, wie eine Kriegserklärung gegen Nordamerika. Zum Beispiel sollen Kinder unter 13 Jahren keine Social-Media-Accounts anlegen dürfen, für den Anfang zwischen 13 und smarten 15 Jahren soll das Zeug nur nach einer gesetzlich vorgeschriebenen elterlichen Zustimmung nutzbar sein. Das muss ganz billiger Fusel gewesen sein, als die das verfasst haben. Einmal, wer will das überprüfen, und warum sollen die Eltern ihre Zustimmung nicht geben – alle anderen haben das ja auch.

Besonders beliebt auch der Schuss auf die Portemonnaies und Geldbörsen von Facebook und Co. Für alle 13 bis 17-Jährigen sollen die Netzwerke altersgerecht umgestaltet werden, noch schlimmer: ein Verbot personalisierter Werbung, reicht immer noch nicht: die wollen suchterzeugende Funktionen wie Push-Nachrichten ebenso abschaffen, wie das runterscrollen ohne Ende. Wofür machen Facebook und Co. das denn? Für ein besseres Nutzererlebnis – das soll verhindert werden? Warum? Um Kinder und Jugendliche zu schützen?

Einmal in Fahrt steigern die sich zum Höhepunkt und wollen ein Verbot von Smartphone in Kitas und Schulen bis zur 10. Klasse. Damit wäre bewiesen, dass ein Cannabis-Verbot dringend notwendig ist – zumindest für die Wissenschaftler der Leopoldina. Haben die schon mal versucht einem Lehrer beizubringen, dass er die Hausaufgaben für seine Grundschüler nicht per WhatsApp nachreichen darf? Spätestens in diesem Moment macht sich nackte Ernüchterung breit – wenn der Lehrer fragt: „Wie? Was? Wieso denn nicht? Das haben wir doch immer so gemacht!

Freiheit hat einen Preis, der sich bemessen lässt – und zwar mit Dollar und Cent in Form von Werbeeinnahmen. Kultur, Bildung und moralische Verantwortung findet sich nur in Büchern – nicht auf dem Smartphone und schon gar nicht in den sozialen Netzen. Es ist die normative Kraft des Faktischen. Wollen wir uns wirklich dagegen auflehnen?

Ich finde, wir sollten gar nichts tun und endlich zeitnah einen Windows 11 Rechner kaufen, der Co-Pilot wartet schon auf Dich, für ein besseres Nutzererlebnis, KI-gesteuert, versteht sich.

Der Appetit kommt eben beim Essen, heißt es so schön – in diesem Sinne:

Mahlzeit!

PS: Hoffentlich bleibt uns die Kröte nicht im Hals stecken.

Digitaler Wochenrückblick 33. KW 2025 (diesmal die richtige Woche) – Beueler-Extradienst

Wie künstliche Videos Social Media fluten

Studie zu “AI Slop”

Eine neue Studie zeigt: TikTok und Instagram kennzeichnen KI-generierte Inhalte nur unzureichend – und gerade TikTok wird von bizarren synthetischen Videos dominiert. Die Plattformen verstoßen damit gegen EU-Vorgaben und sorgen für eine Flut von automatisierter Desinformation.

TikTok und Instagram kommen ihren Pflichten zur Kennzeichnung von KI-generierten Videos nicht ausreichend nach. Auf TikTok dominieren zudem synthetische KI-Videos die Suchergebnisse zu populären Hashtags. Zu diesem Schluss kommt die europäische gemeinnützige Organisation AI Forensics in einer neuen Studie zur Verbreitung von KI-generierten Inhalten auf den beiden Plattformen.

Die Studie untersucht sogenannten AI Slop. Gemeint sind damit massenproduzierte, KI-generierte Inhalte, die „bizarr und sinnlos“ wirken durch ihre Kombination aus fotorealistischem Stil und unrealistischem Inhalt. AI Forensics hat analysiert, wie viele der Suchergebnissen zu den 13 populärsten Hashtags auf TikTok und Instagram AI Slop sind. Dazu betrachteten die Forscher*innen Suchergebnisse zu #Trump, #History oder #Pope mit einem geografischen Fokus auf Deutschland, Spanien und Polen.

Das Ergebnis: Sucht man nach diesen Hashtags auf TikTok, so seien von den obersten 30 Suchergebnissen 25 Prozent AI Slop. Auf Instagram ist die Anzahl deutlich geringer mit nur zwei Prozent. Von den KI-generierten Videos sind rund 80 Prozent fotorealistisch, das heißt sie sehen aus wie echte Videos. Dadurch würden sie noch trügerischer wirken.

Nicht nur Unterhaltung

Als Beispiel für AI Slop führt AI Forensics Shrimp Jesus an, eine Mischung aus Meerestieren und Jesus, die vergangenes Jahr in den Feeds von Facebook-Nutzer*innen für Irritation sorgte. Zugleich habe AI Slop auch desinformative Elemente. So identifizieren die Forscher*innen eine Kategorie von AI Slop, die sie „synthetischen Bürger-Journalismus“ nennen. Gemeint sind etwa Videos von Explosionen, die wie Amateur-Clips aussehen, aber ebenfalls generiert sind.

Ähnlich irreführend würden KI-generierte Straßeninterviews wirken, die einen vermeintlichen Regierungssturz in Iran kommentieren. Auch Videos von Politiker*innen mit falschen Aussagen hat AI Forensics laut der Studie gefunden.

Kennzeichnung reicht nicht aus

Um diesem trügerischen Effekt entgegenzuwirken, schreibt die KI-Verordnung (AI Act) der Europäischen Union Plattformen in solchen Fällen eigentlich Transparenz vor: Sie müssen KI-generierte Inhalte kennzeichnen. Dabei stützt sich die KI-Verordnung auf das Gesetz über Digitale Dienste (Digital Services Act), das vorschreibt, dass große Plattformen gegen gesellschaftliche Risiken vorgehen müssen. AI Forensics weist darauf hin, dass auch die Kennzeichnung von KI-generierten Videos dazu zähle.

Sowohl TikTok als auch Instagram kämen der Kennzeichnungspflicht nicht nach, so die Studie. TikTok gibt die Verantwortung zur Kennzeichnung von KI-generierten Inhalten an Nutzer*innen weiter und verpflichtet dazu in ihren Guidelines. Das sei nicht verlässlich genug und auch die automatisierte KI-Erkennung funktioniere nicht lückenlos, so AI Forensics.

Von den als AI Slop identifizierten Videos auf TikTok war demnach nur rund die Hälfte als KI-generiert gekennzeichnet. Auf Instagram war es noch weniger mit 23 Prozent, obwohl auch Instagram Nutzer*innen zur Kennzeichnung verpflichtet und eine automatisierte KI-Erkennung einsetzt.

Zudem seien die Kennzeichnungen schlecht sichtbar gewesen: Auf TikTok wurden sie in einer langen Liste aus Hashtags versteckt und in der Instagram-Desktop-Version wurden sie gar nicht angezeigt. netzpolitik.org hat die Kennzeichnungen überprüft und kommt zum gleichen Ergebnis.

Verbreitung läuft automatisiert

Hinter der Verbreitung des AI Slops würden fast vollständig automatisierte Accounts stecken, so AI Forensics. 80 Prozent des AI Slops auf TikTok wurde demnach von Profilen hochgeladen, die generative KI-Werkzeuge einsetzten „für automatisierte Inhaltserstellung und schnelles, repetitives Testen von Plattformalgorithmen und Publikumsinteressen“. Diese Massenproduktion von Inhalten ziele darauf ab, Algorithmen auszuspielen und die Chancen für Videos mit einer hohen Reichweite zu erhöhen. AI Forensics sagt voraus, dass dieser Prozess mit der Hilfe von KI-Agenten vollständig automatisiert werden könne.

Die Studie fordert Plattformen auf, diese Art von automatisierten Accounts zu regulieren, um eine weitere Eskalationen und „Manipulationskampagnen“ zu verhindern. Auch sollen Plattformen sich an ihre Verpflichtungen zur Kennzeichnung von KI-generierten Inhalten halten und eigene Regelungen stärker durchsetzen.

Karoline Tanck ist von Juli bis September 2025 Praktikantin bei netzpolitik.org. Sie hat Digital Media und Soziale Medien und Informationssysteme an der Leuphana Universität Lüneburg studiert. Karoline interessiert sich besonders für digitale Gewalt, den Rechtsruck und die sogenannte Künstliche Intelligenz. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Wie künstliche Videos Social Media fluten – Beueler-Extradienst

Ein krasses Fehlurteil?

Das Bundesverwaltungsgericht hat heute das rechtsextremistische Magazin “Compact” nicht verboten, sondern das von der damaligen Bundesinnenministerin Faeser ausgesprochene Verbot mit Hinweis auf die Pressefreiheit aufgehoben. Man habe zwar weitreichende Teile des Magazins als gesichert rechtsextremistisch bewertet, aber bei der “Gesamtwürdigung” des Inhalts und der Tatsache, dass es ja allgemein eine demokratische Öffentlichkeit gebe, überwiege die Meinungsfreiheit. Ein krasses Fehlurteil, das auf einem Missverständnis des Prinzips der “wehrhaften Demokratie” des Grundgesetzes beruht, das ein Organisations- und Parteienverbot – im Gegensatz zur Weimarer Verfassung – möglich macht.

Gesamtwürdigung nicht vorgesehen

Ein signifikanter Kernsatz des Urteils, den der Vorsitzende bei der Urteilsverkündung vortrug, besteht darin, dass das Gericht das Magazin zwar für in weiten Teilen rechtsextremistisch halte, dass aber eben diese “Gesamtwürdigung” vorgenommen wurde und man danach zu dem Schluss gekommen sei, dass das Magazin insgesamt nicht ausschließlich rechtsextremistisch sei. Jürgen Elsässer, Neonazi und Verschwörungspublizist bejubelte das Urteil und kündigte an, nun mit noch mehr Elan an der Verbreitung seiner rechtsextremen Weltsicht zu arbeiten. Ist nun eingetreten, was die Zögerlichen befürchten, wenn sie vor dem Scheitern eines Parteiverbots der AfD warnen? Bei genauem Hinsehen: Nein!

Organisationsverbot ist kein Parteiverbot

Schon bei der Prüfung des Organisationsverbotes gab es Zweifel am formalen Vorgehen des Bundesinnenministeriums. Handelt es sich doch bei “Compact” um die Publikation eines (gesichert rechtsextremen) Vereins, nicht um ein Unternehmen, also einen Presseverlag. Aber diese Frage ist nicht entscheidend gewesen. Ausschlaggebend war, dass das Bundesverwaltungsgericht nicht nur den Inhalt der rechtsextremistischen Artikel über “Re-Migration” und und viele andere bewertet hat, die in ihrem Kern gegen Grundrechte wie  den Gleichheitsgrundsatz, das Demokratiegebot, das Rechtsstaatsgebot, das Asylgrundrecht und viele andere Normen in aktiv-kämpferischer Weise polemisierten. Das Gericht hat anschließend, so sagt es selbst, eine “Gesamtwürdigung” vorgenommen, nach der der Gesamtinhalt des Magazins zu berücksichtigen gewesen sei. Danach sei es eben nicht durchgehend gesichert rechtsextremistisch. Eine solche “Gesamtwürdigung” ist die befremdliche und möglicherweise grob fehlerhafte Anwendung einer im Gesetz nicht vorgesehenen Abwägungsklausel. Die aber sieht weder das Grundgesetz vor, noch steht sie im Einklang mit dem politischen und einfachen Strafrecht und dem Presserecht. Sie würde nicht nur bedeuten, dass Rassisten und Grundrechtsfeinde nur eine bestimmte Anzahl unverdächtiger Artikel daneben platzieren müssten, um das Kriterium der Verfassungsfeindlichkeit nicht mehr zu erfüllen.

Relativierende “Gesamtabwägung” sachfremd

In der analogen Anwendung würde dies bedeuten, dass etwa ein Mörder nicht wegen Mordes oder Totschlags verurteilt werden könnte, wenn er z.B. Altenheime und Kindergärten gebaut und Millionen für deren Unterhalt gespendet hätte. Oder ein notorischer Neonazi nicht für Volksverhetzung bestraft würde, weil er als Herzchirurg viele Leben gerettet hat. Sind bestimmte Tatbestandsmerkmale und Tatbestände im Strafrecht erfüllt, ist die Tat zu verurteilen, gelten allenfalls bei der Strafzumessung Milderungsgründe oder – im Falle der Schuldunfähigkeit die Unterbringung in einer forensischen Psychiatrie. Übertragen auf die AfD würde das bedeuten, dass selbst gesichert rechtsextremistische Landesverbände der Partei nicht verboten werden könnten, solange es harmlose Mitglieder oder Landesverbände wie NRW gibt, die es nicht so heftig treiben, wie Bernd Höcke und die Sachsen. Damit würde Artikel 21 Grundgesetz Absatz 2 – 4, die das Parteiverbot regeln, völlig ins Leere laufen. Dabei ist das Grundgesetz sehr klar:

Artikel 21  – Parteienverbot:

(2) Parteien, die nach ihren Zielen oder nach dem Verhalten ihrer Anhänger darauf ausgehen, die freiheitliche demokratische Grundordnung zu beeinträchtigen oder zu beseitigen oder den Bestand der Bundesrepublik Deutschland zu gefährden, sind verfassungswidrig.

(3) Parteien, die nach ihren Zielen oder dem Verhalten ihrer Anhänger darauf ausgerichtet sind, die freiheitliche demokratische Grundordnung zu beeinträchtigen oder zu beseitigen oder den Bestand der Bundesrepublik Deutschland zu gefährden, sind von staatlicher Finanzierung ausgeschlossen. Wird der Ausschluss festgestellt, so entfällt auch eine steuerliche Begünstigung dieser Parteien und von Zuwendungen an diese Parteien.

(4) Über die Frage der Verfassungswidrigkeit nach Absatz 2 sowie über den Ausschluss von staatlicher Finanzierung nach Absatz 3 entscheidet das Bundesverfassungsgericht.

 Im Grundgesetz gibt es keine Relativierung der Verbotskriterien

Art. 21 richtet sich “nach den Zielen” oder dem ” Verhalten ihrer Anhänger” , das erfordert nicht, etwa, dass alle ihre Mitglieder oder alle Anhänger die Kriterien nach Abs. 2 erfüllen müssen, denn das wäre ja auch gar nicht feststellbar, weil es auch die Wähler:innen umfasst. Das Bundesverwaltungsgericht hat offensichtlich das Prinzip der “wehrhaften Demokratie”, das das Grundgesetz präzise und eng nach zu erfüllenden Kriterien beschreibt und das mit politikwissenschaftlichen und im Falle der gesicherten rechtsextremistischen Haltung auch  geheimdienstlichen Mitteln ermittelt werden darf, sieht eine relativierende “Gesamtwürdigung” nicht vor.

Meinungs- und Pressefreiheit aus Artikel 5 GG gilt auch nicht schrankenlos

Das Presserecht soll nicht nur die Persönlichkeitsrechte der Betroffenen vor rassistischer Hetze und gegen gezielte Diskriminierung schützen. Es schützt auch das Recht auf Gegendarstellung bei falschen Fakten und Behauptungen. Warum dies gegenüber einem solchen Magazin nicht gelten soll, dessen erklärtes Ziel ist, “das System zu stürzen”, erschließt sich nicht.

Das gilt dem Sinne nach auch für das Bundesverwaltungsgerichtsurteil über “Compact”. Der dort getroffene Verweis, es gebe ja schließlich noch eine demokratische Öffentlichkeit, über das sich Leser anderweitig informieren könnten, geht völlig fehl und an der Realität vorbei. Denn im Umkehrschluss erforderte dann ein Organisationsverbot eines solches Magazins eine vorherige fortgeschrittene Zerrüttung der Pressefreiheit und der unabhängigen Öffentlichkeit. Das ist so weltfremd wie konstruiert.

 Die Realität des Mediums Internet nicht zur Kenntnis genommen

Diese “Relativierung” ist auch im Bezug auf die “Pressefreiheit” abwegig. Sie verkennt völlig, dass sich gerade für rechtsextreme Propaganda anfällige Personen zumeist ausschließlich aus bestimmten Medien wie “Compact” und anderen rechtsextremen Kanälen im Internet – etwa auf Medien wie Youtube oder TikTok informieren, die rechtsextreme Inhalte per Algorithmus nach oben manipulieren. Insofern handelt es sich um eine realitätsfremdes Urteil, das die Praxis des rechtsextremistischen Einflusses auf Internet-Medien völlig verkennt. So hat “Compact” zwar “nur” 40.000 Stück Auflage, aber Compact TV rund eine halbe Million Abonnenten auf Internet-Plattformen.

Für die höchsten Verwaltungsrichter des Landes scheint das Internet noch “Neuland ” zu sein!

Über Roland Appel:

Roland Appel ist Publizist und Unternehmensberater, Datenschutzbeauftragter für mittelständische Unternehmen und tätig in Forschungsprojekten. Er war stv. Bundesvorsitzender der Jungdemokraten und Bundesvorsitzender des Liberalen Hochschulverbandes, Mitglied des Bundesvorstandes der FDP bis 1982. Ab 1983 innen- und rechtspolitscher Mitarbeiter der Grünen im Bundestag. Von 1990-2000 Landtagsabgeordneter der Grünen NRW, ab 1995 deren Fraktionsvorsitzender. Seit 2019 ist er Vorsitzender der Radikaldemokratischen Stiftung, dem Netzwerk ehemaliger Jungdemokrat*innen/Junge Linke. Er arbeitet und lebt im Rheinland. Mehr über den Autor.... Sie können dem Autor auch im #Fediverse folgen unter: @[email protected]

Ein krasses Fehlurteil? – Beueler-Extradienst

Digitaler Wochenrückblick 22. KW 2025

Im Rauschen der Nachrichten verliert sich oft der Blick auf das Wesentliche, ob in der Hosentasche oder auf dem Schreibtisch. Überall poppt etwas auf, klingelt, brummt oder bruzzelt, alles buhlt um Aufmerksamkeit.

Früher mussten wir uns Informationen beschaffen, heute ersaufen wir im Info-Terror. Da fällt eine Meldung nicht auf, dass Microsoft letzte Woche fünf Sicherheitslücken außer der Reihe stopfen musste, weil sie bereits aktiv ausgenutzt würden. Das heißt so viel wie: Wir wissen, dass unser Haus brennt, wir schütten aber nur Wasser dahin, wo es zu sehen ist – um die Bevölkerung nicht zu verunsichern. Und es funktioniert, mit jedem Update kann es nur besser werden. Und wenn etwas nicht so funktioniert, wie es soll, dann ist der Nutzer selbst schuld, er muss gegebenenfalls geschult werden. Microsoft bietet es schließlich selbst an.

Karim Khan zum Beispiel (der Chefankläger des Internationalen Gerichtshofs, wurde von Microsoft umfänglich geschult, er setzt jetzt auf Digitale Souveränität und hat ein neues Mailkonto in der Schweiz, nachdem er von Microsoft – sagen wir – abgeschaltet wurde. Der Internationale Gerichtshof werde deswegen in seiner Arbeit geradezu gelähmt, schreibt die Nachrichtenagentur AP dazu. So viel Erfolg hätten sie bei dieser kleinen Aktion in Redmond auch nicht erwartet, dabei war es nur ein Klick, erledigt.

Welche weiteren Schulungsmaßnahmen geplant sind, verrät Microsoft nicht!

Aber viel Feind, viel Ehr – die haben angefangen, die Clouds der chinesischen Universitäten abzuklemmen. Das wird ein richtiger Erfolg. Im Gegensatz zu uns reden sie nicht von Digitaler Souveränität, die machen es. Zugegeben, den Chinesen bleibt jetzt nichts anderes übrig. Aber, wer auf dem Mars und auf dem Mond im ersten Anlauf landet, der ist auf Microsoft nicht angewiesen.

Aber fürchtet euch nicht, wir haben einen Bundesdigitalminister, der prescht mit dem klugen Satz vor: „Datenschutz darf nicht zur Innovationsbremse werden!“, nur was will der bremsen? Da ist nichts, die Innovationsbremse ist in den Köpfen tief verankert.  Besser noch, es sollen in Behörden für den Krisenfall sogar mechanische Schreibmaschinen angeschafft werden, als Rückfalloption. Ich wollte das auch nicht glauben, bis ich es gesehen habe…

Mit Karsten Wildberger haben wir einen echten Manager, als Minister leitet er das Ministerium für unerledigte Angelegenheiten, äh, ich meinte das Digitalministerium. Er träumt vom  „digital next Germany“ und schreibt sich „Staatsmodernisierung“ auf die Fahnen – viel Glück sei ihm gewünscht, mit den Pfosten, die Schreibmaschinen anschaffen wollen. Und Menschen, die Datenschutz als Innovationsbremse empfinden, brauchen unseren besonderen Schutz – zumindest bis sie wieder feste Nahrung zu sich nehmen können.

Wer letzte Woche Mark Zuckerberg auf dem Surfbrett mit der Nordamerikaflagge gesehen hat (und dem Hinweis, das sei nicht von einer KI gemacht), der weiß, was ich mir wünsche: keine überflüssige KI.

Zuckerberg denkt allerdings anders darüber und saugt alles, was seine Opfer auf Facebook und Instagram absondern, in seine KI auf, ungebremst, so wie die Gematik uns erledigt hat, mit einer Opt-Out-Option. Die findet nur niemand – auch wenn die Tagesschau das vorbildlich beschreibt.

Wer nicht widerspricht, wird am 27. Mai 2025 eingemeindet, der Widerspruch muss bis zum 26. Mai 2025 eingegangen sein. Meta gibt sich an diesem Punkt als äußerst lernwillig, für die eigene KI, in unserem Interesse natürlich. Denn sie müssten auf die Daten der EU-Bürger zurückgreifen, um auch den hiesigen Sprachen und Kulturen gerecht zu werden. Vorbildlich, absolut vorbildlich, kulturhistorisch gesehen. Würden sie es nicht tun, verlören sie Nutzer – aber für uns wäre es nicht unbedingt ein Verlust.

Der Widerspruch ist übrigens ziemlich nutzlos, weil Meta nur die öffentlich zugänglichen Daten nimmt und dort haben sich sowieso schon ungefragt OpenAI, Google, Alibaba etc. dran bedient. Was denken denn Verbraucherschutzorganisationen, die dagegen vorgehen, gar bemängeln, der Widerspruchsbutton sei zu schwer zu finden, was mit öffentlich zugänglichen Daten passiert? Nix? Gebt mal in einer Suchmaschine eurer Wahl das Wort clearview“ ein.

Künstliche Intelligenz fehlt scheinbar und weil Europa – vor allem Deutschland – sprudelnde Geldquellen hat, möchte sich openAI sich nicht ganz uneigennützig einbringen. Sie haben diese Woche an einem geheimen Standort in München eine Niederlassung gegründet – mit zehn Mitarbeitern, die Business-Kunden Geld aus der Tasche ziehen sollen. Auf Wunsch stehen die Server in Deutschland oder Europa, falls Firmenkunden den Amerikanern nicht vertrauen oder europäische Richtlinien im Weg stehen. Ich schätze, das wird schon für Digitale Souveränität gehalten.

Besonders sicher soll es auch in unseren Arztpraxen zugehen, denn die Gemati (wissen schon, Gematik und Sicherheit….) orientieren sich an den „Vorgaben der obersten Sicherheitsbehörden und international anerkannten Standards“.

Es stehen 35.000 Konnektoren als Elektroschrott bereit, die nicht mehr umgerüstet werden sollen, die müssen neu beschafft werden, alle mehrere tausend Euro das Stück. Aber weil die Datenautobahn der Gematik wie immer lahmt, warnt sogar die Kassenärztliche Bundesvereinigung (KBV), dass der Tausch nicht rechtzeitig bis zum Herbst 2025 umgesetzt werden kann. Das Problem ist schon älter und der Chaos Computer Club (CCC) hatte bereits vor drei Jahren gezeigt, wie der neue Sicherheitsschlüssel mit einer Softwarelösung aufgespielt werden kann. Aber da hat doch keiner was von und Geld ist genug da, wir müssen doch nicht immer alles für die Patientenversorgung ausgeben.

Das schönste Zitat zur elektronischen Patientenakte (ePA) in dieser Woche kommt vom Vorsitzenden des hessischen Hausärzteverbandes Christian Sommerbrodt:  „Vom Bundesgesundheitsministerium wurde es beworben wie ein iPhone 16. Erwartet haben wir ein Nokia. Was wir bekommen haben, ist ein Telefon mit Wählscheibe.

Keine weiteren Fragen, euer Ehren!

Setzen, weitermachen.

 

Über Christian Wolf:

Christian Wolf (M.A.) ist Autor, Filmschaffender, Medienberater, ext. Datenschutzbeauftragter. Geisteswissenschaftliches Studium (Publizistik, Kulturanthropologie, Geographie), freie Tätigkeiten Fernsehen (RTL, WDR etc.) mit Abstechern in Krisengebiete, Bundestag Bonn und Berlin, Dozent DW Berlin (FS), Industriefilme (Würth, Aral u.v.m), wissenschaftliche und künstlerische Filmprojekte, Projekte zur Netzwerksicherheit, Cloudlösungen. Keine Internetpräsenz, ein Bug? Nein, Feature. (Digtalpurist)

Digitaler Wochenrückblick 22. KW 2025 – Beueler-Extradienst

Mit Update am Nachmittag

Vor ziemlich genau vier Jahren habe ich unter dem Titel „#DeleteFacebook – Warum soziale Netzwerke dezentralisiert werden müssen“ eine Diskussion aufgenommen, die Roland Appel unter der starken Überschrift „Asoziale Netzwerke sind asoziale Netzwerke“ begonnen hat. Am Ende meines Beitrags habe ich dem zu diesem Zeitpunkt gerade erst neu designierten Bundesbeauftragten für den Datenschutz Ulrich Kelber ein Stöckchen hingehalten. Was er inzwischen daraus gemacht hat, ist beachtlich.

Sie erinnern sich noch? Gerade erst war während des US-Wahlkampfes herausgekommen, dass Facebook im Zusammenspiel mit einem gigantischen Datenstaubsauger (Cambridge Analytica) einen der größten Datenschutzskandale seiner Geschichte zu verantworten hatte. Auf den Auswirkungen der Wellen, die das geschlagen hat, surft Mark Zuckerberg noch heute.

Es liegt nicht ganz fern, zu vermuten dass die Umbennenung des Facebook-Konzerns (WhatsApp, Instagram) in „Meta“ auch damit zu tun hatte, dass das Kerngeschäft nicht nur einen erheblichen Vertrauensverlust seiner „Kundschaft“ sondern tatsächlich auch wirtschaftlich relevante Einbußen hinzunehmen hatte. Nun stinkt der Haufen Geld, auf dem Zuckerberg und seine Aktionär:innen sitzen deshalb nicht weniger – im Gegenteil, er ist noch viel größer geworden. Doch die Welt hat sich weiter gedreht und durchaus daraus gelernt!

Und hier kommen wir zurück zum „Beauftragten für den Datenschutz und die Informationsfreiheit“ aus Bonn. Ulrich Kelber – selbst als Informatiker vom Fach – Mitglied des Bundestages (SPD) seit 2000 und seit 2002 auch bei Zweitstimmenmehrheit der CDU immer mit einem Direktmandat wiedergewählt, führt bereits seit kurz nach seinem Amtsantritt 2019 ein privates Konto auf dem dezentralen sozialen Netzwerk „Mastodon“. (Auf welchem auch der Beueler-Extradienst schon seit 2018 vertreten ist.)

Dieser Move des BfDI hat ihm damals zu enormer Credibility in der Szene verholfen und seine Performance dort hat seinem Ruf sicher nicht geschadet. Doch sich darauf auszuruhen war für seine über 300.000 Follower:innen sicher nicht akzeptabel. Das wusste er vermutlich schon, bevor er seine ersten Schritte dort unternommen hat. Und weil er auch die zugrunde liegende Technik verstanden hat, war es nicht genug auf irgendeiner Instanz des Netzwerkes weitere Konten einzurichten – er (bzw. seine Dienststelle) musste selber zu einem Betreiber einer Instanz des Netzwerkes werden.

Gestern nun war es kurzfristig soweit, dass das offizielle Konto des „Datenschutzbeauftragten“ auf der offiziellen Netzwerkinstanz des „Datenschutzbeauftragten“ social.bund.de mehr Follower:innen hatte, als der „private“ Account von Kelber – der nach wie vor auf der lokalen Instanz Bonn.social läuft. Heute haben sich diese Verhältnisse wieder etwas umgekehrt und das Bonner Konto liegt wieder vor den Berliner:innen. 😉

Schön und gut… Und was soll das ganze nun?

Es wäre vielleicht wirklich ein Thema für Nerds, wenn es denn dabei geblieben wäre und die Mastodon Instanz social.bund.de einzig als „Proof of Concept“ für den BfDI funktionieren würde. Doch dem ist inzwischen nicht mehr so! Auf dem Server tummeln sich inzwischen mehr als eine Hand voll illustre Kanäle – mit einem (noch) deutlichen Schlag in die Datenschutz-Ecke, aber immerhin!

Darüber hinaus findet sich auch eine ganz ansehnliche Zahl von Mandatsträger:innen im dezentralen Mastodon-Netzwerk. Wobei „Die Grünen“ dabei sicher – nach den noch überall anzutreffenden Pirat:innen mit eigenem Server – die größte Fraktion darstellen. Sie betreiben beim „Verein für Netzbegrünung“ ganz wie Piraten und der BfDI auch ebenfalls eine eigene Instanz unter gruene.social. Schauen sie selbst mal rein. Die eine oder den anderen werden sie vermutlich kennen. Hier nur stellvertretend der Kanal der NRW-Partei: https://gruene.social/@nrw (der allerdings seit November 2020 nicht mehr aktualisiert wurde – WTF?).

Neben der morgigen Abschaltung des Zombienetzwerks von StudiVZ ist das alles zusammen vermutlich die insgesamt vielversprechendste Entwicklung zum Thema sozialer Netzwerke in Deutschland – und sie hat noch nahezu unbegrenztes Potential viel weiter zu gehen.

Wenn sie die Erregungsmaschine Twitter nicht ausstehen können, wenn sie Facebook oder seiner Schwester Instagram aus dem Weg gehen – weil sie gute Gründe dafür haben, dann schauen sie sich die in diesem Text erwähnten Kanäle dennoch ruhig einmal an. Weil sie öffentlich sind und vor allem auch, weil ihre Daten dort nicht geloggt und vermarktet werden, müssen sie keine Kompromittierung ihrer Privatsphäre befürchten.

Für mich ist dieser „Proof-Of-Concept“ inzwischen weit mehr als nur ein „alternativer“ Social-Media-Kanal für die, die meinen es zu brauchen. Es ist ein Gegegenmodell zum Datenkapitalismus und es ist beliebig skalierbar – vorausgesetzt es wachsen weitere „öffentliche“ Instanzen. Warum soll ihre Stadtverwaltung etwa keinen eigenen Server betreiben?  Oder ihre öffentlich-rechtliche Rundfunkanstalt? Ja, warum machen sie es nicht selbst?

Sie können es längst!

Update am Nachmittag: Nach einem sehr freundlichen Hinweis einer Extradienst-Mastodon-Leserin aus dem Ländle (und eines nicht weniger freundlichen „Trööts“ der Landesregierung) habe ich noch den Link auf den Server des Datenschutzbeauftragten aus Baden-Württemberg nachzutragen: https://bawü.social/explore. Dort finden sie unter anderen zum Beispiel folgende Kanäle:

Weitere Hinweise auf öffentliche/politische Institutionen im #Fediverse bitte gerne in die Kommentare hier oder auf Mastodon… ich werde sie sehr gerne hier ergänzen!

https://ww1.extradienst.net/2022/03/30/deletefacebook-sie-koennen-es-laengst/

#ASozialeNetzwerke #BadenWürttemberg #Bonn #BonnDigital #BundesdatenschutzbeauftragterBfDI_ #Datenschutz #DieGrünen #DigitaleSouveränität #FacebookMeta_ #Fediverse #InstagramMeta_ #MarkZuckerberg #Mastodon #TwitterX_ #UlrichKelber #WhatsApp

#DeleteFacebook – Warum soziale Netzwerke dezentralisiert werden müssen – Beueler-Extradienst