Psycholog*innen warnen: #SozialeMedien als Zerrspiegel der Gesellschaft

https://netzpolitik.org/2025/psychologinnen-warnen-soziale-medien-als-zerrspiegel-der-gesellschaft/#netzpolitik-pw

> Forschende der New York University sehen in sozialen Medien einen Zerrspiegel für gesellschaftliche Normen, angetrieben von #Empfehlungsalgorithmen. Sie empfehlen, sich dieser Illusion zu entziehen.

AfD Inhalte werden auf TikTok und XTwitter massiv bevorzugt.

📢 #Studie: #TikTok und #XTwitter bevorzugen #AfD-Inhalte in Deutschland — Eine neue Untersuchung von #GlobalWitness zeigt, dass die #Empfehlungsalgorithmen von TikTok und XTwitter in Deutschland deutlich zugunsten der AfD verzerren. (1/3)

Dieser Artikel stammt von Netzpolitik.org.

Der Meta-Konzern will bei Threads, Instagram und später auch bei Facebook politischen Inhalte die Reichweite nehmen. Diese Inhalte sollen nicht mehr algorithmisch verstärkt werden.

„Ein weniger wütender Ort“ oder ein sozial-mediales Biedermeier? – Public Domain Carl Spitzweg

Metas Twitter-Alternative Threads und das soziale Netzwerk Instagram sollen in Zukunft politische Inhalte nicht mehr algorithmisch pushen. Das verkündete Instagram-Chef Adam Mosseri auf Threads. Man wolle nicht mehr „proaktiv politische Inhalte von Konten verstärken“, denen Nutzer:innen nicht folgen. Für politische Inhalte und Nachrichten heißt dies in Zukunft, dass diese wohl eine deutlich geringere Reichweite haben werden.

Wer Politik sehen will, muss bei Threads und Instagram diesen Accounts entweder folgen oder den Haken für Politik setzen. – Alle Rechte vorbehalten Instagram

Nutzer:innen müssen in Zukunft den als politisch eingeordneten Accounts folgen, um ihre Inhalte zu sehen. Alternativ sollen sie die Limitierung in ihren Einstellungen herausnehmen können, heißt es weiter. Das gleiche hat Meta für Instagram verkündet.

Dort heißt es, dass professionelle Accounts in ihren Einstellungen checken können, ob ihre Inhalte als politisch eingestuft werden. Sie könnten dann entweder Beschwerde gegen die Klassifikation einlegen oder politische Inhalte löschen und künftig nicht mehr posten. Dadurch können sie wieder zu den Accounts gehören, deren Inhalte anderen empfohlen werden. Dafür soll es eine Art Abkühlphase geben, nach der ein Account wieder algorithmisch verstärkt werde.

Wie Meta die Einstufung in politische und nicht-politische Inhalte vornimmt, wird aus den Ankündigungen nicht wirklich klar. Instagram spricht nur von Inhalten, die Regierungen, Gesetze, Wahlen oder soziale Themen beinhalten würden. Das ist vage: Schon der kleinste Bezug auf Umweltschutz oder ein Posting zu Rassismus könnte in Zukunft dazu führen, dass Accounts an Reichweite verlieren. Diese Regelungen, die sich an den Richtlinien von Instagram Reels orientieren, sollen in Zukunft auch für Facebook gelten. Ein Datum nannte Meta dafür allerdings nicht.

„Einen weniger wütenden Ort“

Instagram-Geschäftsführer Adam Mosseri hatte schon im Juli 2023 gesagt, dass Threads keine politische Plattform sein solle. Man wolle einen „weniger wütenden Ort“ als Twitter schaffen und werde „Politik und harte Nachrichten“ nicht fördern. Das Ausblenden von Politik wird besonders auch von journalistischen Medien kritisch gesehen, weil diese um ihre Reichweite fürchten.

Keith Edwards, ein politischer Stratege der US-Demokraten, sagt gegenüber der Washington Post: „Meta versucht, die Welt unpolitisch zu machen, was autoritären Bewegungen nur hilft, und das zu einer Zeit, in der autoritäre Bewegungen in westlichen Demokratien auf dem Vormarsch sind.“ Die Maßnahme könnte zudem rechten Politiker:innen und Influencer:innen helfen, die schon heute mit Inhalten arbeiteten, die den Anschein von Politik vermieden, heißt es weiter im Artikel.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Markus Reuter

https://www.bachhausen.de/empfehlungsalgorithmen-threads-und-instagram-wollen-politische-inhalte-ausbremsen/

#ausbremsen #empfehlungsalgorithmen #inhalte #instagram #politische #threads #wollen

Empfehlungsalgorithmen: Threads und Instagram wollen politische Inhalte ausbremsen

Der Meta-Konzern will bei Threads, Instagram und später auch bei Facebook politischen Inhalte die Reichweite nehmen. Diese Inhalte sollen nicht mehr algorithmisch verstärkt werden.

netzpolitik.org
Ein interessanter Zwei-Punkte-Vorschlag des kanadischen Bloggers Cory #Doctorow, um das #Internet wieder benutzerfreundlicher und weniger abhängig von bestimmten #Plattformen zu machen:
1️⃣ - Definierte Requests oder Präferenzen von Usern (wem folge ich, was genau suche ich, welche Inhalte will ich sehen) müssen stets Vorrang vor #Empfehlungsalgorithmen haben.
2️⃣ - Angebote, bei denen User Daten speichern oder austauschen, müssen stets untereinander so #interoperabel sein, dass die User problemlos den Anbieter wechseln und dabei ihre Daten komplett mitnehmen können (Follower, Postings, abonnierte Musik usw.).
https://netzpolitik.org/2023/cory-doctorow-zwei-prinzipien-fuer-ein-besseres-internet/
Cory Doctorow: Zwei Prinzipien für ein besseres Internet

Plattformregulierung ist oftmals komplex und schwierig. Der kanadische Schriftsteller und Blogger Cory Doctorow hat vor dem Hintergrund der amerikanischen Debatte zwei Prinzipien formuliert, die aus seiner Sicht der Schlüssel für ein besseres Internet sind. Sie sind auch für die hiesige Debatte interessant.

netzpolitik.org
Counterfactuals: Mit komplexer Mathematik zu besseren Empfehlungsalgorithmen

Ein besseres Modell des Maschinellen Lernens soll die automatisierte Entscheidungsfindung in vielen IT-Bereichen verbessern – von der Gesundheit bis zur Musik.

MIT Technology Review
Mein Beitrag zur Regulierung von #Microtargeting in der EU ist jetzt auf @hpdticker
. Mich würden Meinungen dazu interessieren, was die #Amplification (Verstärkung von Meinungen durch #Empfehlungsalgorithmen) angeht. Regulierung ist da schon ein heißes Eisen, oder? #Meinungsfreiheit
https://hpd.de/artikel/zahlt-fuer-meine-meinung-21190
Wer zahlt für meine Meinung?

EU – Meinungsfreiheit – Regulieren. Diese drei Vokabeln genügen, um bei manchen eine gewisse Alarmstimmung zu erzeugen. Hat nicht die EU mit dem Artikel 13, der Vorratsdatenspeicherung oder der geplanten Chatkontrolle immer wieder gezeigt, dass sie es mit den Bürgerrechten nicht so genau nimmt? Immerhin garantiert uns vor allem die Meinungsfreiheit ein Leben in Freiheit und Demokratie. Und von der EU geht bekanntlich der Großteil unserer – auch nationalen – Rechtsprechung aus. Da darf man schon mal etwas genauer hinsehen. Sollte man sich Sorgen machen?

Wenn Elon Musk jetzt meint, selber nach Gusto an den Twitter-Algorithmen fummeln zu müssen, hat er das Wort #Meinungsfreiheit nie verstanden. Wer diesem Mythos noch glaubt, drückt beide Augen ganz fest zu.
#Empfehlungsalgorithmen #TRAP
https://www.spiegel.de/netzwelt/netzpolitik/twitter-wie-elon-musk-informationen-ueber-den-ukrainekrieg-unterdrueckt-kolumne-a-3cafbf63-7b68-4484-b45e-027f4ac10be7?sara_ref=re-so-app-sh#kommentare
Einblick in den Algorithmus: Wie Elon Musk Beiträge über den Ukrainekrieg unterdrückt

Seit Beginn von Putins Krieg fällt der Twitter-Chef als politisches Irrlicht auf. Nun veröffentlicht er den Twitter-Algorithmus – und offenbart so, welche Tweets befördert und welche eingeschränkt werden.

DER SPIEGEL
Künstliche Intelligenz: „Algorithmen sind wie Drogen“

Die Algorithmen von sozialen Netzwerken bevorzugen extreme Positionen. Sie verändern unser Urteilsvermögen wie Drogen und polarisieren die Gesellschaft, sagt der renommierte Künstliche-Intelligenz-Forscher Stuart Russell im ORF-Interview. Er untersucht die Algorithmen empirisch – und empfiehlt dringend, sie zu regulieren.

ORF.at
In meinem neuen Podcast spreche ich mit Martin Degeling @mrtn3000 von der Stiftung Neue Verantwortung darüber, wie #Empfehlungsalgorithmen in #SocialMedia eigentlich funktionieren. Für mich gab’s ein paar überraschende Einblicke. Viel Spaß beim Hören! (🎧50 Min.)
https://digitalhumanrights.blog/freedom-of-reach-social-media/
Freedom of Reach – Ein Blick in den Maschinenraum der Social Media

TRAP - Teil 1: Ein Podcast mit Dr. Martin Degeling von der Stiftung Neue Verantwortungund Peder Iblher über die Funktionsweise von Empfehlungsalgorithmen.

digital human rights blog

Passend zur Twitter-Übernahme von Elon Musk starte ich ein nach oben offenes Projekt zu #Empfehlungsalgorithmen. Denn mehr als Zensur beeinflussen diese unsere Meinung – und sorgen in der Praxis für eine Polarisierung der Gesellschaft.

https://digitalhumanrights.blog/t-r-a-p-empfehlungsalgorithmen-demokratie/

Über Empfehlungsalgorithmen und Demokratie

Die Empfehlungen und Moderation in sozialen Netzwerken polarisieren unsere Gesellschaft. Mit den Auswirkungen haben wir alle zu kämpfen – was tun?

digital human rights blog