Einer meiner Doktoranden hat ein #tiktok Selbstexperiment gestartet.

Neuer Account. Dann einfach alles bis zu Ende schauen, was ihm vom Algorithmus vorgeschlagen wurde.

Ergebnis: Nach nicht mal einer halben Stunde waren die Vorschläge dominiert von rechtsextremen Inhalten, #fckafd Werbung und Propagandavideos. Anscheinend richtig übles Zeug.

Falls ihr euch gewundert haben solltet, warum die #fckafd bei den Jugendlichen so erfolgreich ist. Auch diese Dreckschleuder gehört dringend reguliert.

@abulling Diese Drecksschleuder unterliegt doch Pflichten aus dem DSA?
@abulling Bei Youtube starte ich auch öfter mit leerem Verlauf und ohne Login. Binnen Minuten gibts Querdenker-Geschwurbel, AfD-nahes Zeug und anderen rechtslastigen Kram in den Empfehlungen.
@neuimneuland
Wg. Youtube:
Freetube auf Linux PC und LibreTube auf Androidphone ersparen mir das z. Zt. Ich sehe da bis jetzt nur die Kanäle die ich abnoniert hab.
@abulling
@abulling derzeit regulieren nur Leute, ihrer Privilegien wegen!

@abulling

Wäre mal interessant, ob das Experiment anders ausgeht, wenn man mit einem "linken" Video beginnt.

@turboscholz Er hat selbst ja nicht begonnen, sondern die Plattform hat ihm Videos vorgeschlagen. Und die haben offensichtlich einen rechtsextremen Bias.
@abulling @turboscholz bzw. sponsorn vielleicht auch ihre Videos gezielter. Ich erinnere mich da auch an viele Videos zur BTW mit "Ich bin Türkin und wähle die AfD", usw. Das waren alles kleine offiziellen Accounts. Manche Medien schlossen dann daraus, dass die AFD schlecht ist bei TikTok. Aber die nutzen meist eher inoffizielle Accounts.
@abulling @turboscholz Es könnte aber vielleicht einen Einfluss darauf haben, wie er auf die Videos reagiert. Wenn rechter Content kommt, ist vielleicht entscheidend, wie viel Zeit er mit dem Video verbringt oder ob er interagiert, indem er es z. B. analysiert.
Müsste man mal genau untersuchen.
Es ist aber gut möglich, dass er durch sein Verhalten das Ergebnis unbewusst selbst herbeiführt.
@abulling @turboscholz Das Blocken bestimmter Werbung scheint übrigens nichts zu bringen, das habe ich selbst festgestellt. Sie erscheinen trotzdem immer wieder.
@abulling @turboscholz Ein weiteres Problem könnte sein, dass YouTube/TikTok bestimmte Informationen über ihn besitzt oder ermittelt – etwa den Wohnort, das Geschlecht, das ungefähre Alter, das verwendete Smartphone oder sein Interaktionsverhalten mit anderen Videos. Wenn diese Merkmale genau dem Profil der Zielgruppe entsprechen, für die eine bestimmte Werbung vorgesehen ist, werden ihm bestimmte Anzeigen eher angezeigt.
@abulling @turboscholz
Es wäre interessant, das gleiche Video- oder Werbeergebnis einmal mit unterschiedlichen Geschlechtern oder Personen zu vergleichen, um zu sehen, wie stark sich die Ausspielung unterscheidet.
@abulling @turboscholz Die Algorithmen zeigen unbekannten Nutzern wahrscheinlich bevorzugt Videos an, die besonders kontrovers sind oder viele Interaktionen hervorrufen. Deshalb denke ich, dass es generell nicht ratsam ist, mit rechtsextremen oder problematischen Inhalten zu interagieren – also zum Beispiel zu kommentieren oder ein Dislike zu geben. Solche
@abulling @turboscholz Interaktionen könnten möglicherweise dazu führen, dass die Videos vom Algorithmus als „interessant“ eingestuft und dadurch noch häufiger empfohlen werden.
@abulling @turboscholz Machen wir uns aber nichts vor: Ich bin mir sicher, dass rechte Gruppen, oder möglicherweise auch ausländische Akteure, diese Mechanismen gezielt ausnutzen, um bestimmte Inhalte zu pushen. Wer keine moralischen Bedenken hat, kann mit ein paar Hundert Dollar heutzutage ziemlich einfach jedes Video/Kanal künstlich in die Höhe treiben.
@leobm @abulling @turboscholz Der Hauptgrund dürfte das Verhalten anderer Benutzer sein. Denn es passiert ja selbst mit frisch aufgesetzten Systemen.

@neuimneuland @abulling @turboscholz Zum Anschauen von Videos in der TikTok-App muss man sich in der Regel anmelden. Um selbst zu interagieren ist eine Registrierung erforderlich.
Für die Anmeldung werden mindestens grundlegende Daten wie eine E-Mail-Adresse, Telefonnummer oder ein Social-Media-Login abgefragt.

Über die Angabe von E-Mail-Adresse und Telefonnummer lassen sich möglicherweise bereits viele

@neuimneuland @abulling @turboscholz

zusätzliche Informationen aus anderen Datenquellen ableiten.

Schon bei der Installation und dem ersten Öffnen der TikTok-App werden zudem verschiedene Metadaten des Geräts erfasst – auch ohne, dass man ein Konto anlegt. Keine Ahnung inwieweit Apos darauf Zugriff haben?
Typ und Modell des Smartphone, Betriebssystem,

@neuimneuland @abulling @turboscholz Spracheinstellungen, IP-Adresse (zur Ermittlung von Standort und Internetanbieter), Geräte-ID und MAC-Adresse, Zugriff auf SIM-Karteninformationen bzw. die Mobilfunknummer, Mobilfunkanbieter
oder vielleicht sogar die Kontakte des Nutzers?

Ich denke, anhand all dieser Daten lässt sich auch ein neuer Nutzer bereits einem bestimmten Cluster zuordnen.

@neuimneuland @abulling @turboscholz Aber auch das eigene Verhalten innerhalb der App spielt mit Sicherheit eine große Rolle – und damit meine ich nicht nur aktives Liken, Disliken oder Kommentieren usw.
@leobm @abulling @turboscholz Dem ist ganz sicher so. Das ist allerdings kein Faktor, wenn man mit einem frischen Profil beginnt, die App keinen Zugriff auf Kontakte/Telefonnummer/Standort hat und schon dort zeigt sich ja das Problem.
@neuimneuland @leobm @turboscholz Exakt. Genau deswegen muss man das Experiment auch so machen, wenn man wissen möchte, welche Biases eine Plattform hat bzw. welche Inhalte massiv gepushed werden.
@leobm @turboscholz Natürlich. Wie gesagt - er hat zu Ende geschaut, was immer ihm vorgeschlagen wurde.
@abulling @turboscholz das wäre jedenfalls mal ein interessantes Forschungsprojekt.

@abulling

Das ist ja bei Instagram ganz ähnlich. Sobald du da ein Fußballvideo zuende schaust, wird dir plötzlich fast nur noch Fußball reingedrückt. Oder Rezepte, oder Katzen. Möglicherweise ist in TicToc der AFD Content einfach überrepräsentiert und die Wahrscheinlichkeit sehr hoch, dass das gleich zu Beginn angezeigt wird.

@leobm

@abulling @turboscholz

Das Experiment baut darauf auf, das der Nutzer überhaupt nicht reagiert.
Der Algorithmus sucht aber nach Inhalten, auf die der Nutzer reagiert.

Es wäre also theoretisch möglich, das die hohen Reichweiten der rechten Inhalte nur virtuell sind und in Wirklichkeit Niemanden erreichen.

https://de.wikipedia.org/wiki/Das_Dilemma_mit_den_sozialen_Medien

Das Dilemma mit den sozialen Medien – Wikipedia

@turboscholz @abulling Nein, meine Youtube timeline vom eingeloggten Account ist weit links. Trotzdem sind da gelegentlich rechtslastige Vorschläge dabei und einmal aus Versehen sowas angeclcikt und du brauchst Wochen um den Abgrund wieder gerade zu biegen.

@abulling

Ich habe ein einziges Mal webbasiert ein TTvideo angeschaut, das mir von jmd empfohlen wurde.

Im automatisierten Anschluss direkt danach begann ein Video von #NarzisseWeidel .

Seitdem war ich nie wieder bei TT und habe das auch nie wieder vor.

@abulling aus meiner persönlichen Erfahrung kann ich das auch nur bestätigen. Wenn ich z.B. Computer neu aufsetze und YT aufrufe, lande ich sehr schnell über die Vorschläge bei rechtem Geschwurbel. Und selbst bei mir, der eher „links-grün versifften“ Content bevorzuge, landet immer und immer wieder der rechte Dreck in den Vorschlägen.
@lordkhan @abulling meine gegenmaßnahme war bei YT dann zu sagen: ich wohne in GBR und spreche englisch. ich habs gerade mal wieder umgestellt. Mal sehen, wie schnell die rechtsestreme WELT TV wieder flutet, wo dann Anwälte der AfD uns die Welt erklären.
@kielkontrovers @abulling jepp. Ich hatte Springer zwar rechts verordnet, aber was da Welt TV von sich gibt, ist einfach nur noch Propaganda. Find ich schon bemerkenswert, wie offen da gehetzt wird.
@lordkhan @kielkontrovers Und vor allem ohne jegliche Konsequenzen wie es scheint.
@lordkhan @abulling Bei mir sieht das auch so aus. Womit klar wäre, dass das TikTok-China-Argument eher wenig mit der Realität zu tun hat.
@neuimneuland @abulling Absolut! Die amerikanischen Plattformen sind so kaputt und überflutet mit Müll. "Oh, Sie gucken Katzenvideos - wollen Sie etwas über die AfD erfahren?", "Ah, Sie handwerken wohl gerne - wissen Sie schon, was die Grünen Ihnen alles verbieten wollen?" ... nur noch traurig.
@abulling den versuch habe ich auch vor den letzten beiden Bundestagswahlen gemacht. Ich hatte dann sogar extra GRÜNE Accounts gefollowed, half aber nix. Es war gefühle 95% nur noch AfD und unbenutzbar. Ich vermute die einzige Rettung ist tiervideos bis zur Besinnungslosigkeit zu liken.

@abulling

Bei YouTube das gleiche…

@abulling wenn der exportschlager im eigenen land zur unkenntlichkeit reguliert wurde...
@abulling hat vielleicht nicht nur Russland, sondern auch China ein Interesse an der Destabilisierung unseres politischen Systems? 🤷🏻‍♂️
@abulling habe genau das gleiche Experiment zusammen mit einer Lerngruope gemacht und es ist genau das gleiche passiert. Diese Algorithmen müssen per Gesetz transparenter gemacht werden.
@abulling kann ich bestätigen
@abulling Ergänzung: Ich folge ja nur linksgrünen Accounts. Also eigentlich bombensicher gegen rechten Algorithmus. Ich gucke mir rechte Inhalte nie an. Aber da war ich mal länger nicht da, komme zurück und bäm, nach 30 Sekunden war ich in rechtsradikalen Lives. Das ist alles kein Zufall
@Andreas Bulling ich wette mal, die chinesische original-version macht das nicht ...
@abulling Stichwort "neuer account". geht mal auf YouTube ohne Account, Schon auf der Startseite kommt Rechtsextrem und Verschwörungstheorien. Und in der Seitenleiste nach nur einem Click.
@abulling Ich vermute da geh auch keine Regulierung mehr, da müssen wir auf wohlwollende Hacker warten.
@abulling Ich hab das gleiche Experiment auch mal gestartet, ich kann das Ergebnis bestätigen. Rechte Inhalte werden auf TikTok stark gepusht. Hab TickTok sofort wieder gelöscht.
@Alex 🍜 das bedeutet doch, das verhalten ist eingebaut. klingt nach langfristig angelegter sozialer sabotage westlicher gesellschaften. wenn die chinesische variante anders funktioniert, dann ist das hiesige absicht ...
@abulling
Vor 2 Jahren probiert: schon beim ersten durchspulen kam nur Bullshit.
@abulling
Meine Forderung dazu: Alle Sortieralgorythmen bei den sozialen Medien und bei Suchmaschinen müssen transparent veröffentlicht und von Gutachtern genehmigt werden.