Einer meiner Doktoranden hat ein #tiktok Selbstexperiment gestartet.

Neuer Account. Dann einfach alles bis zu Ende schauen, was ihm vom Algorithmus vorgeschlagen wurde.

Ergebnis: Nach nicht mal einer halben Stunde waren die Vorschläge dominiert von rechtsextremen Inhalten, #fckafd Werbung und Propagandavideos. Anscheinend richtig übles Zeug.

Falls ihr euch gewundert haben solltet, warum die #fckafd bei den Jugendlichen so erfolgreich ist. Auch diese Dreckschleuder gehört dringend reguliert.

@abulling

Wäre mal interessant, ob das Experiment anders ausgeht, wenn man mit einem "linken" Video beginnt.

@turboscholz Er hat selbst ja nicht begonnen, sondern die Plattform hat ihm Videos vorgeschlagen. Und die haben offensichtlich einen rechtsextremen Bias.
@abulling @turboscholz bzw. sponsorn vielleicht auch ihre Videos gezielter. Ich erinnere mich da auch an viele Videos zur BTW mit "Ich bin Türkin und wähle die AfD", usw. Das waren alles kleine offiziellen Accounts. Manche Medien schlossen dann daraus, dass die AFD schlecht ist bei TikTok. Aber die nutzen meist eher inoffizielle Accounts.
@abulling @turboscholz Es könnte aber vielleicht einen Einfluss darauf haben, wie er auf die Videos reagiert. Wenn rechter Content kommt, ist vielleicht entscheidend, wie viel Zeit er mit dem Video verbringt oder ob er interagiert, indem er es z. B. analysiert.
Müsste man mal genau untersuchen.
Es ist aber gut möglich, dass er durch sein Verhalten das Ergebnis unbewusst selbst herbeiführt.
@abulling @turboscholz Das Blocken bestimmter Werbung scheint übrigens nichts zu bringen, das habe ich selbst festgestellt. Sie erscheinen trotzdem immer wieder.
@abulling @turboscholz Ein weiteres Problem könnte sein, dass YouTube/TikTok bestimmte Informationen über ihn besitzt oder ermittelt – etwa den Wohnort, das Geschlecht, das ungefähre Alter, das verwendete Smartphone oder sein Interaktionsverhalten mit anderen Videos. Wenn diese Merkmale genau dem Profil der Zielgruppe entsprechen, für die eine bestimmte Werbung vorgesehen ist, werden ihm bestimmte Anzeigen eher angezeigt.
@abulling @turboscholz
Es wäre interessant, das gleiche Video- oder Werbeergebnis einmal mit unterschiedlichen Geschlechtern oder Personen zu vergleichen, um zu sehen, wie stark sich die Ausspielung unterscheidet.
@abulling @turboscholz Die Algorithmen zeigen unbekannten Nutzern wahrscheinlich bevorzugt Videos an, die besonders kontrovers sind oder viele Interaktionen hervorrufen. Deshalb denke ich, dass es generell nicht ratsam ist, mit rechtsextremen oder problematischen Inhalten zu interagieren – also zum Beispiel zu kommentieren oder ein Dislike zu geben. Solche
@abulling @turboscholz Interaktionen könnten möglicherweise dazu führen, dass die Videos vom Algorithmus als „interessant“ eingestuft und dadurch noch häufiger empfohlen werden.
@abulling @turboscholz Machen wir uns aber nichts vor: Ich bin mir sicher, dass rechte Gruppen, oder möglicherweise auch ausländische Akteure, diese Mechanismen gezielt ausnutzen, um bestimmte Inhalte zu pushen. Wer keine moralischen Bedenken hat, kann mit ein paar Hundert Dollar heutzutage ziemlich einfach jedes Video/Kanal künstlich in die Höhe treiben.
@leobm @abulling @turboscholz Der Hauptgrund dürfte das Verhalten anderer Benutzer sein. Denn es passiert ja selbst mit frisch aufgesetzten Systemen.

@neuimneuland @abulling @turboscholz Zum Anschauen von Videos in der TikTok-App muss man sich in der Regel anmelden. Um selbst zu interagieren ist eine Registrierung erforderlich.
Für die Anmeldung werden mindestens grundlegende Daten wie eine E-Mail-Adresse, Telefonnummer oder ein Social-Media-Login abgefragt.

Über die Angabe von E-Mail-Adresse und Telefonnummer lassen sich möglicherweise bereits viele

@neuimneuland @abulling @turboscholz

zusätzliche Informationen aus anderen Datenquellen ableiten.

Schon bei der Installation und dem ersten Öffnen der TikTok-App werden zudem verschiedene Metadaten des Geräts erfasst – auch ohne, dass man ein Konto anlegt. Keine Ahnung inwieweit Apos darauf Zugriff haben?
Typ und Modell des Smartphone, Betriebssystem,

@neuimneuland @abulling @turboscholz Spracheinstellungen, IP-Adresse (zur Ermittlung von Standort und Internetanbieter), Geräte-ID und MAC-Adresse, Zugriff auf SIM-Karteninformationen bzw. die Mobilfunknummer, Mobilfunkanbieter
oder vielleicht sogar die Kontakte des Nutzers?

Ich denke, anhand all dieser Daten lässt sich auch ein neuer Nutzer bereits einem bestimmten Cluster zuordnen.

@neuimneuland @abulling @turboscholz Aber auch das eigene Verhalten innerhalb der App spielt mit Sicherheit eine große Rolle – und damit meine ich nicht nur aktives Liken, Disliken oder Kommentieren usw.
@leobm @abulling @turboscholz Dem ist ganz sicher so. Das ist allerdings kein Faktor, wenn man mit einem frischen Profil beginnt, die App keinen Zugriff auf Kontakte/Telefonnummer/Standort hat und schon dort zeigt sich ja das Problem.
@neuimneuland @leobm @turboscholz Exakt. Genau deswegen muss man das Experiment auch so machen, wenn man wissen möchte, welche Biases eine Plattform hat bzw. welche Inhalte massiv gepushed werden.
@leobm @turboscholz Natürlich. Wie gesagt - er hat zu Ende geschaut, was immer ihm vorgeschlagen wurde.
@abulling @turboscholz das wäre jedenfalls mal ein interessantes Forschungsprojekt.

@abulling

Das ist ja bei Instagram ganz ähnlich. Sobald du da ein Fußballvideo zuende schaust, wird dir plötzlich fast nur noch Fußball reingedrückt. Oder Rezepte, oder Katzen. Möglicherweise ist in TicToc der AFD Content einfach überrepräsentiert und die Wahrscheinlichkeit sehr hoch, dass das gleich zu Beginn angezeigt wird.

@leobm

@abulling @turboscholz

Das Experiment baut darauf auf, das der Nutzer überhaupt nicht reagiert.
Der Algorithmus sucht aber nach Inhalten, auf die der Nutzer reagiert.

Es wäre also theoretisch möglich, das die hohen Reichweiten der rechten Inhalte nur virtuell sind und in Wirklichkeit Niemanden erreichen.

https://de.wikipedia.org/wiki/Das_Dilemma_mit_den_sozialen_Medien

Das Dilemma mit den sozialen Medien – Wikipedia

@turboscholz @abulling Nein, meine Youtube timeline vom eingeloggten Account ist weit links. Trotzdem sind da gelegentlich rechtslastige Vorschläge dabei und einmal aus Versehen sowas angeclcikt und du brauchst Wochen um den Abgrund wieder gerade zu biegen.