In einem Forum haben wir über das Fediverse diskutiert. Da gab es auch eine Anmerkung, dass ein größeres #Fediverse gar nicht möglich sei.

An die technisch Versierten. Was sagt ihr zu folgender Aussage:

"Stell‘ Dir vor, Du hast einen einzigen User, der ein erfolgreicher Influencer ist, und der hat 1 Mio Follower und postet jeden Tag ein Video. Jeder Miniserver, auf dem auch nur ein Fan dieses Influencers sitzt, muss den gesamten Traffic abwickeln, nicht nur die Videos, auch die Replies, die Likes, was auch immer. Da entsteht ein völlig aufgeblasener Traffic (und der blockiert auch viel lokalen Speicherplatz auf jedem einzelnen Server), der sich durch das ganze Netzwerk multipliziert. Hättest Du einen zentralen Server, hast immer noch den Datenverkehr Deiner User, aber keine Vervielfachung von Traffic und Speicherplatz. Das Fediverse kann einfach nur funktionieren, wenn es klein ist. Das Konzept hatte im Fidonet seine Berechtigung, weil es damals um die Telefonkosten ging. Aber heutzutage ist das viel zu aufwändig, fehleranfällig und ressourcenintensiv."

@roblen Ist das so? Ich hab mir das noch nie im Detail angeschaut, aber ich kann mir nur schwer vorstellen, das jeder Fedi-Server ein Datenmirror der anderen Server ist.... sehr, sehr schwer.

@sequundi @roblen das ist schon grundsätzlich richtig, aber nicht alle Instanzen mirrorn, sondern nur die, auf denen ein User der Berühmtheit folgt.

Skalieren nach oben wird tatsächlich immer teurer. Das ist aber auch keine harte Grenze wo es plötzlich gar nicht mehr geht. Likes nehmen jetzt nicht furchtbar viele Ressourcen in Anspruch, der Großteil sind Medien. In der Praxis werden Medien von externen Instanzen daher nur X Wochen vorgehalten. Dadurch wird das sehr gut abgefangen.

Wenn also eine Berühmtheit jeden Tag ein Video postet und alle Menschen im Ferdi ihr folgen, würde das Video auf jeder Instanz ein mal vorgehalten, für ein paar Wochen. Wie lange genau, ist Konfigurationssache. Danach müssen die User den Originalpost auf der Instanz der Berühmtheit aufrufen, um es zu schauen.

@tofuwabohu @sequundi @roblen da hier das protokoll ja in der 'öffentlichen' hand ist, wäre es doch vermutlich nicht soo schwer, dass die videos nicht gemirrored/-cached werden, sondern nur der link zur originalquelle verteilt und von dort geladen wird.
eigentlich bin ich bisher sogar davon ausgegangen, dass tatsachlich nur der textinhalt mit dem mediaindentifier geteilt wird … bin hier aber auch nur nutzer, sry.

@speckmantel @sequundi @roblen das könnte natürlich grundsätzlich gemacht werden, eröffnet aber neue Probleme: sämtlicher traffic für das Video würde über die originale Instanz gehen. Ist die überfordert oder mal down, wäre es nicht mehr erreichbar.

Das ist schon so gedacht, wie es jetzt ist. Instanzen können besonders große Mediendateien auch ablehnen, wenn sie nicht so viele Ressourcen haben.

@tofuwabohu @sequundi @roblen hab' dich auch so verstanden, lokales caching.
evtl. dann (also, FALLS das oben genannte problem zu einem echten wird) erst, wenn mindestens n nutzer auf der jeweiligen instanz abo haben und nicht bei einer.
meinte nur, so grundsätzlich, sollte sich da ja was machen lassen, bevor es da dran scheitert. und wenn es crowdfunded mediacaches werden.
denke nicht, dass fed wegen der videos zum scheitern verurteilt ist :)
@speckmantel @sequundi @roblen verteilte Mediencaches wurden schonmal irgendwo diskutiert, hab leider nicht mehr in Kopf, was genau und wo. Aber ich denke auch nicht, dass das so ein KO-Nachteil ist, wie im OP Zitat geschildert. Das kriegen wir schon hin.