Hat Tiktok unsere Jugend verdummt?

Neulich hatte ich die Gelegenheit, dem führenden Manager einer grossen deutschen Verlagsgruppe zuzuhören. Er konstatierte, das freie Web sei tot. Nur die grossen Plattformen hätten überlebt. Und die würden die Besucherinnen und Besucher mit allen Mitteln auf der eigenen Plattform behalten – und dafür sorgen, dass die kleinen Informationsquellen verkümmern.

Das deckt sich mit meinen Beobachtungen, die ich vor zwei Jahren darlegte und dieses Jahr allgemein und anhand meines eigenen Blogs belegte und im Nerdfunk diskutierte (hier und hier). Der Mann sagte noch zwei weitere Dinge, über die es sich nachzudenken lohnt:

  • Die jüngeren Generationen befeuern diesen Niedergang. Sie haben das freie Web nie kennen oder schätzen gelernt und haben keinen Anlass, Tiktok jemals zu verlassen.
  • Die grossen Medienhäuser haben keine Wahl, als selbst zu einem Silo zu werden. Sie müssen alle Bedürfnisse der User befriedigen und sie mit den gleichen Tricks (algorithmisch ausgesuchte, personalisierte Inhalte, etc.) auf ihren Plattformen behalten.
  • Die erste These scheint sofort plausibel. Daraus ergibt sich der Schluss, dass auch die zweite Annahme vernünftig ist: Wenn die Entwicklung so eindeutig in eine Richtung verläuft, dann gilt es, sich auf das Unvermeidliche vorzubereiten. So unerfreulich es auch sein mag.

    Sind etwa Eigeninteressen im Spiel?

    Was mich angeht, gebe ich das freie Web so schnell nicht verloren. Und könnten wir den Sachverhalt nicht auch umgekehrt deuten? Es wäre genauso möglich, dass der Vertreter eines grossen Medienhauses die Chance wittert, die Mechanismen der Tech-Giganten zu kopieren. Da ein solches Verhalten nicht überall auf Wohlwollen stösst, käme es ihm natürlich gelegen, wenn er das als Unvermeidbarkeit darstellen könnte.

    Ich gehöre zu den 2,2 Prozent der alten Säcke, die Podcasts hören.

    Sehen wir uns den Stand des Irrtums zu diesem Thema an: Studien zeigen sogleich, dass die Sache (wie üblich) etwas komplizierter ist¹. Wir sollten «die Jungen» nicht über einen Kamm scheren². Die diesjährige und selbst im Ausland diskutierte Studie des Forschungszentrums Öffentlichkeit und Gesellschaft (Fög) der Universität Zürich zur Qualität der Medien (hier das PDF) legt dar, dass die sogenannte News-Deprivation kein reines Problem der Jugendlichen ist:

    Die sozialen Medien sind in den beiden unteren Altersgruppen (18 bis 24 und 25 bis 34) zwar deutlich häufiger vertreten als bei den älteren drei. Doch bei den News-Websites ist das Bild einheitlich. Die Gruppe der 35- bis 44-Jährigen befindet sich an der Spitze. Zur Entwicklung über die Zeit belegt die Studie eine Entwicklung über alle Generationen hinweg:

    Soziale Medien gewinnen im Verhältnis zu anderen Kanälen weiter an Bedeutung (15,3 Prozent; +1,9 PP) und sind für immer mehr Menschen die Hauptinformationsquelle.

    Auch das gemeinnützige American Press Institute ist nicht so fatalistisch wie der Vertreter des grossen deutschen Medienhauses. API kommt zum Schluss, dass sich die Generation Z und die Millennials durchaus für Nachrichten interessieren (79 Prozent). Sie verwenden eine Vielzahl von Quellen, auch traditionelle nationale und lokale Nachrichtenmedien wie Zeitungen, Fernsehnachrichtensender, deren Websites und Apps. Daneben kommen Facebook, Youtube, Instagram, Tiktok, Snapchat, Twitter, Reddit, Linkedin, Twitch und Nextdoor zum Zug.

    Kein Grund, das freie Web bereits verloren zu geben

    Diese Studie betrachtet die Altersgruppen zwischen 16 und vierzig und benennt die folgenden Unterschiede:

    Ältere Millennials verlassen sich eher auf traditionelle Nachrichtenquellen als jüngere Millennials und die Generation Z. 44 Prozent der Generation Z geben an, niemals Nachrichten und Informationen aus traditionellen Quellen zu beziehen, verglichen mit 35 Prozent der jüngeren Millennials und 31 Prozent der älteren Millennials.

    Hey, die Jungen zahlen sogar für Medien!

    Es gibt eine gewisse Verschiebung bei den Gewohnheiten. Die sind jedoch nicht so gross, dass wir dem freien Web bereits das Totenglöckchen läuten sollten. Insbesondere, weil diese Studie einen interessanten Aspekt beleuchtet. Sie unterscheidet Leute, die aktiv nach Informationen suchen (Seekers) von den Personen, die Informationen konsumieren, wenn sie ihnen begegnen (Bumpers). Und zu diesen beiden Gruppen hält das API fest:

    Wir stellen fest, dass sich die Mischung aus Bumpers und Seekers unter der Generation Z und den Millennials in den letzten sieben Jahren trotz der zunehmenden Verbreitung von Social-Media-Plattformen nicht verändert hat.

    Nicht einmal bei der Bereitschaft, für Medien zu zahlen, erkennt diese Studie eine Abnahme. Zugegeben, sie ist bereits drei Jahre alt, und in dieser Zeit dürfte die «Tiktokisierung» weiter fortgeschritten sein.

    Fallen wir nicht auf unsere eigenen Vorurteile herein

    Trotzdem. Die polemische Eingangsthese dürfen wir als widerlegt betrachten. Sie lebt davon, dass viele der Älteren unter uns sie noch so gerne glauben würden. Sie bedient das jahrhundertealte Vorurteil, dass die «Jugend von heute» das letzte sei und nicht zu schätzen wisse, was vorherige Generationen für sie aufgebaut haben. Es handelt sich um eine Ausprägung des derzeit so beliebten Generationen-Bashing, bei dem meistens die Gen Z schlecht wegkommt (sodass die Boomer etwas weniger dran glauben müssen).

    Für mich zeigen diese Studien, dass die jungen Nutzerinnen und Nutzer Respekt dafür verdienen, mit einer so reichhaltigen und komplexen Angebotslage differenziert umzugehen. Wenn sie häufiger als gewollt bei Tiktok hängenbleiben, sollten wir ihnen das verzeihen. Uns Alten geht es oft genauso. Ausgenutzt werden wir von Mark Zuckerberg, Google, Meta und Elon Musk nicht, weil wir jung sind – sondern wegen unserer menschlichen Schwächen.

    Die Disruption wurde abbestellt

    Also: Es ist sinnlos, in einem passiv-aggressiven Akt die ganze Medienlandschaft umzupflügen, um hinterher der Generation Z und den Millennials die Schuld dafür zu geben, dass jetzt alles so beschissen ist.

    Im Gegenteil: Wir sollten an die Stärken der unabhängigen Medien und der Informationsvielfalt glauben: Das ist der einzig vernünftige Widerstand gegen die Einfalt in den sozialen Medien. Es ist der Grund, weswegen ich stur weiter blogge – demnächst im 19. Jahr.

    Abschliessend: Ich bin voll dafür, die Gen Z für mündig zu halten. Sie kann und wird gute Entscheidungen treffen. Als Journalistin und als Blogger haben wir keine andere Wahl. Denn wenn wir unser Publikum für ignorant, News-Fast-Food-süchtig und von Algorithmen ferngesteuert halten, können wir unseren Job genausogut an den Nagel hängen.

    Fussnoten

    1) Eine Untersuchung des Meinungsforschungsinstituts Pew Research Center von 2025 beleuchtet die Situation für die USA und konstatiert Unterschiede nach diversen demografischen Faktoren:

    Frauen beziehen Nachrichten eher regelmässig über Facebook, Instagram und TikTok, während Männer Youtube, X und Reddit als Quellen angeben. Jüngere Menschen sind eher regelmässige Nachrichtenkonsumenten auf Tiktok, Instagram, Reddit und X. Schwarze, hispanische und asiatische Amerikaner beziehen Nachrichten eher von Youtube, Instagram und Whatsapp als weisse Amerikaner. Darüber hinaus beziehen Personen ohne Hochschulabschluss eher Nachrichten von Facebook und Tiktok als Personen mit Hochschulabschluss. ↩

    2) Die «Always on»-Studie der Fachhochschule Nordwestschweiz (FHNW) von 2019 zeigt eine gewisse Präferenz für soziale Netzwerke, Videoportale, Streamingdienste und Onlinespiele, vergleicht aber nur Jugendliche untereinander. In dieser Alterskohorte lassen sich Unterschiede naturgemäss damit erklären, dass sich ein 16-Jähriger für andere Dinge interessiert als eine 23-Jährige. Ausserdem ist die Studie sechs Jahre alt, was uns vermuten lässt, dass z. B. die heutige Bedeutung von Tiktok nicht adäquat abgebildet ist. ↩

    Beitragsbild: Immer am Handy, nur noch soziale Medien? Ganz so schlimm ist es nicht (Karola G, Pexels-Lizenz).

    #Plattformisierung #SozialeMedien

    Das freie Web wird immer mehr zur Wüste

    Wie kommt eine Website zu Besucherinnen und Besuchern? Wer vermittelt ihr das Publikum: die Suchmaschinen, Social Media oder vielleicht Communitys wie Reddit? Diese Frage ist hochaktuell, weil das Netz sich rasant verändert:

    • Es gibt Anzeichen, dass Suchmaschinen durch die generative künstliche Intelligenz abgelöst oder zumindest konkurrenziert werden.
    • Die sozialen Medien vermitteln immer weniger Publikum an kleine, unabhängige Websites. Sie wollen die Leute auf ihren eigenen Plattformen halten und strafen Posts mit externen Links algorithmisch ab.
    • Blogs, Foren und kleine Communitys verlieren an Bedeutung. Das führt dazu, dass von dort weniger Menschen ihren Weg ins freie, unabhängige Netz finden.

    Wie lässt sich diese Entwicklung beurteilen? Letztes Jahr las ich den Artikel von Medienwissenschaftler Martin Andree, in dem er forderte, das Netz von Meta, Google und Musk zu befreien. In dem heisst es:

    In Wirklichkeit ziehen die digitalen Monopole der grossen Netzkerne (GAFAM, also Google, Amazon, Facebook/Meta, Apple und Microsoft sowie Tiktok) den Grossteil des digitalen Verkehrs an sich. Der Rest des Internets gleicht einem riesigen Friedhof.

    Ich schrieb ihn an und fragte, mit welchen Zahlen er diese Aussage untermauern könne. Er liess mich wissen:

    Sie brauchen für echte wissenschaftliche Traffic-Analysen ein Beobachtungs-Setup, das einen zweistelligen Millionenbetrag kostet. Deswegen gibt es die kaum (weder in Deutschland noch in den anderen westlichen Ländern).

    Für weitere Erkenntnisse empfahl er mir sein Buch Big Tech muss weg!, das derzeit auf meinem Nachttisch liegt.

    Ein Beobachtungs-Setup im beschriebenen Massstab kann ich leider nicht bieten. Aber immerhin habe ich die Statistik für mein Blog zur Verfügung. Diese Analysemethode hat zwar allerlei Mängel¹. Aber weil sie besser ist, als komplett ahnungslos im Nebel zu stochern, kommt sie den Widrigkeiten zum Trotz zum Zug.

    Die Erkenntnisse sind folgende:

    1) Nichts geht ohne Suchmaschinen

    Die anderen Suchmaschinen sind von überragender Bedeutung für die Publikumsvermittlung. Im analysierten Zeitraum von 2018² bis heute machen sie 86,4 Prozent der vermittelten Aufrufe aus.

    Wenig überraschend: Die dominierende Suchmaschine ist Google. Das ist die Rangliste aus meinem Blog in Prozentzahlen:

    Google96,637Startpage1,571Bing,961Ecosia,506Baidu,140Yahoo,104Qwant,032Metager,014Swisscows,014Ask.com,012Yandex,010

    Wenn noch Zweifel über die Abhängigkeitsverhältnisse bestanden hätten, wären die hiermit beseitigt. Interessante Beobachtung am Rand: Startpage schlägt Bing um eine halbe Länge!

    2) Twitter dominiert die sozialen Medien

    Wenn wir uns die Verteilung (in Prozent) bei den sozialen Medien ansehen, dann ist die Situation ebenfalls eindeutig:

    Twitter52,04Facebook29,18Linkedin15,70Bluesky2,07Threads1,02

    Twitter war über die Zeit lange das wichtigste soziale Netzwerk für die Verbreitung meiner Themen. Das ist heute nicht mehr der Fall: Hat mir Twitter 2019 noch fast 5200 Views eingebracht, waren es im Verlauf der letzten zwölf Monate nur noch 756. Nicht nur, dass Elon Musk mein Publikum erfolgreich von seiner Plattform vertrieben hat (?) – auch die Abstrafung durch den Algorithmus macht sich bemerkbar. Die beiden neuen Konkurrenz-Kurznachrichtendienste vermochten das nicht wettzumachen: Threads war in den letzten zwölf Monaten für um die 170 Views zuständig, Bluesky für gut 600.

    Übrigens: Natürlich habe ich Mastodon nicht vergessen. Nur scheinen die Aufrufe aus dem Fediversum nicht richtig gezählt zu werden. In meiner Statistik gibt es insgesamt 13 Aufrufe von mastodon.social für die letzten zwölf Monate. Das entspricht definitiv nicht der Resonanz, die ich dort erhalte. Doch der Aufwand, die diversen Instanzen und Apps zu konsolidieren, sprengte leider den Rahmen dieses Blogs.

    3) Unter ferner liefen: Communitys und Aggregatoren

    In meiner Statistik tauchen einige weitere Publikumsvermittler auf: der Aggregator Rivva (Brecht eine Lanze für das unabhängige Web), die bedauerlicherweise verblichene Medienwoche, das Online-Forum 3dcenter.org, Flipboard, einige Blogger-Kollegen wie Thomas Widmer, Martin Steiger und last but not least digithek.ch, plus einige Newsmedien. Die unterliegen grossen Schwankungen, und sie fallen quantitativ nur gering ins Gewicht – trotzdem: Dankeschön für die Klicks!

    4) Die Abhängigkeit nimmt zu, die Vielfalt ab

    Schauen wir uns die Entwicklung über die Zeit an, dann zeigt sich ebenfalls ein klares Bild: Die Vielfalt bei den Publikumsvermittlern geht kontinuierlich zurück; der Anteil der Suchmaschinen ist seit 2018 von gut 80 auf über 95 Prozent angestiegen.

    Die Auswertung meiner Statistik nach Kategorien: Die Suchmaschinen (dunkelblau), d. h. vor allem Google, wurden zwischen 2018 und heute immer wichtiger. Die sozialen Medien (orange) haben in dieser Zeit stark an Bedeutung verloren, ebenso Communitys (grün), Aggregatoren (violett) und News-Websites (hellblau). Referrer, die ich nicht eindeutig zuordnen konnte, habe ich für diese Analyse weggelassen.

    Der Rückgang bei den sozialen Medien und Aggregatoren ist auch in absoluten Zahlen zu beobachten. Der hellblaue Anteil bezieht sich auf die News-Websites. Er rührt vor allem daher, dass ich bei meinen Tamedia-Artikeln gelegentlich auf mein Blog verweise. Dieser Anteil ging vor allem deswegen zurück, weil bei denen der Referrer nicht mehr ausgewiesen wird: Das führt zu einer Verzerrung. Wenn ich diese Kategorie weglasse, ist der Anstieg der Suchmaschinen weniger deutlich, aber dennoch signifikant.

    Zu beachten ist, dass auch der Suchmaschinen-Anteil Schwankungen unterworfen ist. Es sind einige wenige Blogposts, die für den Löwenanteil des Suchmaschinen-Traffics verantwortlich sind: Wenn das Interesse an einem auf Google erfolgreichen Blogpost zurückgeht, führt das in der Summe zu einem spürbaren Rückgang. Das heisst nicht zwingend, dass die Bedeutung der Suchmaschinen insgesamt rückläufig wäre. Dieses eingangs erwähnte Horrorszenario ist bei meiner Website derzeit nicht zu bemerken: Möge das noch jahrzehntelang so bleiben!

    5) Und die KI?

    Die entscheidende Frage für die Zukunft ist natürlich, ob und wie sich die generative künstliche Intelligenz als Publikumsvermittler bemerkbar machen wird. Traurige Tatsache ist, dass sie für mich bis anhin fast keine Rolle spielt. Die Sprachmodelle haben in der Statistik nur winzige Spuren hinterlassen: ChatGPT ist mit 86 Klicks vertreten und Copilot von Microsoft mit acht. Deepseek und Mistral sorgten je für einen einzigen Besuch auf Clickomania.

    Die AI Overviews von Google lassen sich nicht identifizieren. Unter dem Strich lässt das Böses erahnen: Denn wenn trotz des riesigen Hypes um die KI und der stark steigenden Benutzerzahlen nur so wenig Publikum bei den Primärquellen ankommt, heisst das nichts anderes, als dass der von Andree beschriebene Friedhof bald noch viel grösser und toter sein wird.

    Fussnoten

    1) Der Hauptmangel besteht natürlich darin, dass mein Blog in keiner Weise repräsentativ ist. Ausserdem sind die Zahlen, die ich von Jetpack bekomme, nicht belastbar.

    Obendrein sie sind nicht vollständig: Jetpack zeigt den Referrer an. Das ist jene Information, die bei einem Aufruf einer Seite hier im Blog angibt, woher dieser Aufruf erfolgte, d. h., welche Website einen Besucher oder eine Besucherin vermittelt hat. Das lässt folgende Dinge ausser Acht:

    • Es ist nicht ersichtlich, wie viele Leute im Vergleich dazu meine Website direkt angesteuert haben, etwa über ein Lesezeichen in ihrem Browser.
    • Manche Websites unterdrücken den Referrer. Mein Eindruck ist, dass die Verwendung des Attributs noreferrer zunimmt, was umgekehrt zu einer Abnahme der Aussagekraft der entsprechenden Statistik führt.
    • Die Verwendung eines RSS-Readers hinterlässt typischerweise keine Spuren in dieser Statistik.
    • Und es gibt das Phänomen von Dark Social: Wenn Links über Messenger, per E-Mail oder auf anderen privaten Kanälen weitergegeben werden, schlägt sich das ebenfalls nicht in der Statistik nieder, sodass nicht alle Publikumsvermittler adäquat abgebildet werden. ↩

    2) Bei meinem Umstieg auf WordPress habe ich mich für die Jetpack-Statistik entschieden, die ich seitdem nutze. Für die Zeit vorher habe ich leider keine vergleichbaren Zahlen zur Verfügung. ↩

    Beitragsbild: Nicht einmal auf dem Hochsitz hockt einer (Niklas Hamann, Unsplash-Lizenz).

    #Longread #Plattformisierung

    Ein Internet-Kollektiv will das freie Internet vor den KI-Konzernen retten

    Andreas Von Gunten ist umtriebiger Verleger und Digitalunternehmer, dem ich anfangs Jahr am Vin­tage Com­pu­ter Festival begegnete und der auch schon bei uns im Nerdfunk war. Neulich fragte er auf Linkedin:

    Wie können Medien- und Kreativschaffende steuern, ob und wie Werke im Zusammenhang mit generativer KI genutzt werden und sie allenfalls sogar noch Geld dafür bekommen?

    Eine berechtigte Frage: Denn die KI wird dazu führen, dass die Medien und unabhängige Webpublizisten massiv an Reichweite verlieren, während die Konzerne Geld mit den Sprachmodellen verdienen, die sie mit den Online-Inhalten von uns allen trainiert haben.

    Konzepte, wie sich der Zusammenbruch des «Geschäftsmodells World Wide Web» verhindern liesse, gibt es: Pro Rata erprobt ein Verteilsystem, bei dem die Urheber der Inhalte am Umsatz partizipieren. Der KI-Bot Gist.ai führt vor, wie bei einer Antwort die Beiträge der einzelnen Informationslieferanten gewichtet werden und welche fundamentalen Probleme sich stellen, wenn diese Attribution fair erfolgen soll.

    Doch selbst wenn die Methode funktionieren sollte, stellt sich ein nächstes Problem: Woher wissen die KI-Konzerne, welche Informationen sie wie verwerten können? Pro Rata arbeitet mit ein paar handverlesenen Partnern zusammen. Ich habe mich mit diesem Blog hier vor Monaten angemeldet, aber nie eine Rückmeldung bekommen.

    Die ganze Welt muss partizipieren können

    Dass dieser selektive Ansatz für eine nachhaltige Lösung nichts taugt, liegt auf der Hand: Denn wenn die globalen Informationsbestände via KI so breit erschlossen werden sollen wie heute via Google, dann muss der Zugang für die Inhaltsanbieter genauso niederschwellig sein wie bei einer Suchmaschine. Das heisst: Papierkram, Lizenzdeals oder andere Bürokratiehindernisse kommen nicht infrage. Die Crawler der Suchmaschinen finden unsere Websites von allein. Alles, was wir tun müssen, ist via robots.txt festzulegen, welche Inhalte sie sich einverleiben dürfen und welche nicht. Genauso simpel muss die Beteiligung bei der künstlichen Intelligenz möglich sein.

    Von Gunten verweist für diesen Zweck auf RSL; das Really Simple Licensing:

    RSL ist ein offener Standard, mit dem Verlage maschinenlesbare Lizenzbedingungen für ihre Inhalte definieren können, darunter Namensnennung, Bezahlung pro Crawl und Bezahlung pro Inferenz.

    Der Standard ist brandneu: Er wurde am 10. September 2025 begründet, verrät Wikipedia. Er wird von RSL Collective getragen, einer gemeinnützigen Organisation, hinter der u. a. Eckart Walther steht. Dieser Mann arbeitete Ende der 1990er-Jahre für Netscape und wirkte an RSS mit: den Webfeeds, mit denen wir noch heute unsere Informationsquellen organisieren und Podcasts abonnieren.

    [caption id=“attachment_30351″ align=“alignright“ width=“300″] Ohne RSS wäre das Internet ärmer dran.[/caption]

    Das gibt dieser Idee Gewicht: Denn diese Technologie hat viel zum offenen Informationsfluss im Web beigetragen und ist auch heute noch eine Bastion gegen die «Plattformisierung». Dank RSS können unabhängige Podcast-Produzentinnen und -Produzenten ihre Produktionen distribuieren, ohne sich komplett von Spotify oder anderen Streaminganbietern abhängig machen zu müssen.

    Zum RSL Collective zählt Doug Leeds als weiteres Internet-Urgestein, der Chef von Ask.com war. Und Reddit, Yahoo und Medium stehen hinter der Initiative.

    Lizenzdeals werden vollautomatisch geschlossen

    Technisch funktioniert RSL simpel: Die Lizenzbestimmungen werden in der Robots.txt-Datei hinterlegt und geben an, wie ein Unternehmen eine Lizenz erwirbt und unter welchen Bedingungen es sie nutzen darf – wie oben angedeutet, indem es die ursprüngliche Quelle angeben muss (Creative Commons), ein Abonnement nötig ist, pro Crawler-Zugriff eine Entschädigung fällig wird oder wie bei Pro Rata die Verwertung einer Information in einer KI-generierten Antwort kostenpflichtig wird.

    Bleibt die Frage: Was halten wir davon?

    Ich finde den Ansatz einleuchtend – und zwar nicht nur in Bezug auf die KI. Stellen wir uns vor, es hätte ihn vor zwanzig Jahren gegeben, als viele von uns mit dem Bloggen anfingen. Es ist nicht undenkbar, dass sich neue Formen der Monetarisierung ergeben hätten: durch Lese-Apps, Aggregatoren, Syndizierung, Republishing oder Repackaging (oder einem sonst noch für Schlagwörter auf der Zunge liegen). Und die, die sich noch an Flattr erinnern, malen sich womöglich eine Mikropayment-Lösung aus, bei der zahlungswillige Internetnutzerinnen und -Nutzer den Anbietern vollautomatisch eine Lizenz lösen: sprich, einen Obolus für den Informationskonsum entrichten.

    Damit sind wir beim Problem: Solche offenen Lösungen funktionieren prächtig, wenn alle Teilnehmer nach den Spielregeln spielen. Wenn wir aber eines aus den letzten zwanzig Jahren gelernt haben, dann ist es die bittere Lektion, dass das nicht der Fall ist: Die Tech-Giganten können gar nicht anders, als die Regeln während der laufenden Partie zu ihren Gunsten zu ändern.

    Fairplay ohne Schiedsrichter?

    Werden sich OpenAI, Google, Microsoft, Apple, Meta, Anthropic, Mistral und Konsorten an diese Abmachungen halten? Für die Antwort sollten wir uns daran erinnern, dass sie sich bis jetzt nicht die Mühe gemacht haben, um überhaupt nach einer Erlaubnis zum Training ihrer KIs mit unseren Daten zu fragen. Warum sollten sie es jetzt tun, nachdem ihre Produkte für viele von uns bereits unverzichtbar sind? Und selbst wenn sie sich des lieben Friedens willen darauf einlassen: Wie können wir jemals sicher sein, dass sie zahlen, was sie müssten?

    [caption id=“attachment_34394″ align=“alignright“ width=“254″] Gist versucht, den Anteil der einzelnen Quellen an der Antwort der KI auszuweisen.[/caption]

    Stellen wir uns vor, dass ich (via Word­press-Plug-in) meine Inhalte für die KI zur Verfügung stelle, aber für die Verwendung pro KI-generierter Antwort bezahlt werden will: Angesichts der oben erwähnten Probleme bei der Attribution ist es ein Klacks, meinen Anteil kleinzurechnen oder zum Verschwinden zu bringen. Denn es glaubt wohl niemand daran, dass es effektive Kontrollmechanismen geben wird. Um bei der Sportmetapher zu bleiben: Wer glaubt, dass ohne Schiedsrichter fair gespielt wird? Doch sollte der Internet-Schiri plötzlich kommen?

    Das Tal der Tränen bleibt uns nicht erspart

    Fazit: Ich begrüsse RSL und werde es bei Gelegenheit hier im Blog implementieren. Allzu viel erhoffe ich mir nicht. Ich rechne damit, dass ein langes, tiefes Tal der Tränen vor uns liegt und sich eine Lösung erst ergeben wird, wenn die KI-Konzerne das Web so leergesaugt haben, dass ihnen der Nachschub an Trainingsmaterial für ihre Modelle ausgeht. Und falls jemand den Einwand machen sollte, dass kein Unternehmen so verrückt sein kann, sich seine eigene Lebensgrundlage zu entziehen, dann – tja, dann wäre es wohl an der Zeit, auf die fossile Energiewirtschaft, die Fischereiindustrie, die Holzwirtschaft, die Intensivlandwirtschaft oder die Grossbanken zu verweisen …

    Beitragsbild: Ein Content Creator wird vom wirtschaftlichen Untergang gerettet – Symbolbild (Inge Wallumrød, Pexels-Lizenz).

    #Bloggen #KI #Lesertipp #Plattformisierung
    Es kann ja sein, dass rundfunkrechtliche Gründe dahinterstecken. Grundsätzlich finde ich es aber sehr problematisch, dass #podcast|s des #ÖRR bevorzugt über Audiotheken und eigene Apps angeboten werden und erst nachrangig als Feed. Dor #sockenpuppenzoo etwa ist über die ARD-App komplett abrufbar, als eigentlicher Podcast hingegen wird er erst nach und nach ausgespielt. Damit betreibt auch der ÖRR die #Plattformisierung von Podcasts.
    In der Plattformfalle

    Die Plattformfalle hat zugeschnappt. Wie können wir das Internet zu unseren Bedingungen zurückgewinnen?

    transcript Verlag
    $Menschen beschweren sich, dass eine Podcast-Episode über dezentrale Social-Media nicht auf Spotify ist. ¯\_(ツ)_/¯
    #Plattformisierung
    Wieviel #Plattformisierung verträgt der öffentlich-rechtliche #Journalismus? Dazu spricht OBS-Autor Henning Eichler heute auf der @[email protected] #rp22. Es bedarf einen zivilgesellschaftlichen Diskurs, wie #ÖR Qualität auf Plattformen sichergestellt wird. 1/3 https://re-publica.com/de/session/wieviel-plattformisierung-vertraegt-public-value-medienethik-fuer-oeffentlich-rechtlichen
    Wieviel Plattformisierung verträgt Public Value? Medienethik für öffentlich-rechtlichen Journalismus in sozialen Netzwerken | re:publica

    republica

    Im freien Netz diskutieren, nicht bei Facebook

    Im Beitrag Facebook ist ein schwarzes Loch habe ich mich darüber ausgelassen, dass Facebook Debatten monopolisiert und in einem Datensilo verschwinden lässt. Die Diskussionsbeiträge verschwinden auf einer Plattform, wo man sie nur schwer wiederfindet. Mein Vorschlag war, die Diskussion nicht bei Facebook zu führen, sondern über die Kommentarfunktion bei den Primärqullen.

    Nun gibt es natürlich viele Websites, die keine Kommentarfunktion haben und über die man dementsprechend überhaupt nur auf Facebook diskutieren kann. Und es gibt auch Fälle, wo man eine solche Diskussion nicht öffentlich, sondern in einem eingeschränkten Kreis führen möchte. Das ist, wie ich beklagt habe, sehr oft sehr schade, weil nicht alle von dieser Diskussion profitieren und die Diskussion überhaupt nur für einen eingeschränkten Kreis ersichtlich ist.

    Aber natürlich gibt es legitime Gründe dafür. Zum Beispiel, wenn man rein fachlich debattieren oder sehr persönlich werden möchte. Vielleicht möchte man Trolle oder die unqualifizierte Meinung von Otto Normalsurfer ausklammern – was zwar elitär, aber auch verständlich wäre. Oder man hat vor, ein Thema aus einer ganz bestimmten Perspektive anzugehen.

    Der gemeinnützige Ansatz

    Ich habe mir also die Frage gestellt, wie man in solchen Fällen operieren könnte. Dabei bin ich auf hypothes.is gestossen. Das ist eine gemeinnützige Organisation, die «an open conversation over the whole web» bringen will. Sie hat das Ziel, das ganze Netz kommentierbar zu machen: Die Kommentarmöglichkeiten werden «von aussen» bereitgestellt.

    Das wird hier als Konversationsebene beschrieben, die dem Netz übergestülpt wird. Sie funktioniert überall, ohne dass bei den zugrundeliegenden Websites irgend eine Änderung nötig wäre (a conversation layer over the entire web that works everywhere, without needing implementation by any underlying site).

    Textstellen kommentieren

    Konkret funktioniert das so, dass man bei seinem Browser ein Bookmarklet und bei Chrome eine Erweiterung verwendet. Ein Bookmarklet ist ein Lesezeichen, das keine Internetadresse, sondern ein bisschen Javascript-Code enthält. Und dieser Code lädt dann die Elemente, mit der man die Ergänzungen zur Website hinterlegt wird. Die Annotationen werden in einer Leiste am rechten Rand angezeigt. Bei manchen Websites erscheinen sie auch in der Navigation. Bei diesem Blog hier ersetzen sie ein von Google Adsense angezeigtes Werbebanner.

    [caption id=“attachment_5452″ align=“alignleft“ width=“840″] Eine öffentlich kommentierte Seite von whitehouse.gov: Man kann konkret auf bestimmte Textstellen bezug nehmen.[/caption]

    Wenn man einen Beitrag kommentieren möchte, muss man sich anmelden. Die Annotationen zu lesen, benötigt man weder ein Benutzerkonto noch eine Anmeldung.

    Stellt sich natürlich die Frage: Wer kann und darf die Anmerkungen lesen? Hier wird das wie folgt erklärt:

    Annotations are public by default and can be seen by anyone using the Hypothesis client. Highlights are private, visible only to you when you’re logged in. If you’ve created a public annotation you can later make it private.

    Annotations made as a member of a group are visible only to other group members. Group annotations can, as well, be made fully private.

    Kurz zusammengefasst: Annotationen sind standardmässig öffentlich und durchsuchbar. Die Hervorhebungen sind hingegen privat und nur sichtbar, wenn man eingeloggt ist. Man kann öffentliche Annotationen privat machen. Und wenn man zu einer Gruppe gehört, sind die Gruppen-Annotationen nur für die Gruppe ersichtlich.

    Das ist sinnvoll: Man kann Kommentare je nach Zweck und Absicht nur für sich, für eine Gruppe oder für die ganze Welt machen.

    Wie üblich gilt bei solchen Webdiensten: Man macht sich abhängig, wenn man sie nutzt. Sie können von einem Tag auf den nächsten eingestellt werden. Wenn man alle seine Notizen für eine Doktorarbeit bei einem gerade verschwundenen Dienst gesammelt hat, steht man entsprechend dumm da.

    Gefahr des Blackouts?

    Bei hypothes.is schätze ich das unmittelbare Risiko für einen Totalausfall als relativ gering ein. Es gibt den Dienst laut Wikipedia schon seit 2011. Und wie gesagt: Hinter dem Projekt steht eine gemeinnützige Organisation, die die Software auch quelloffen zur Verfügung stellt. Wenn seine Diskussionen selbst unter Kontrolle haben möchte, betreibt man sie selbst. Wie einfach oder schwer es ist, sie zu hosten, habe ich allerdings auf die Schnelle nicht in Erfahrung bringen können.

    Ein paar Ergänzungen:

    Wenn man seine Artikel lieber privat kommentiert, gibt es dazu natürlich auch Möglichkeiten: Man kann sie zum Beispiel mittels Webclipper nach Evernote oder Onenote überführen. Man verwendet die Webseitennotiz von Microsoft Edge. Oder man verwendet ein Tool wie diigo.com. Einige weitere Tricks finden sich übrigens im Beitrag Tricks fürs Jagen und Sammeln im Web.

    Eingesetzt wird hypothes.is auch bei Outlline.com. Diese Webanwendung kombiniert die Möglichkeit, Webdienste zu annotieren mit einer lesefreundlichen, entrümpelten Leseansicht. Outline.com eliminiert Navigation, Werbung, Teaser, Popups und jegliches Drumherum. Es bleibt nur der Text und die zum Artikel gehörenden Bilder übrig. Das ist praktisch, wenn man am Bildschirm liest, wenn man eine Seite ohne Ballast drucken oder als PDF archivieren möchte – und wenn man nicht die überladene Originaldarstellung für Annotationen nutzen möchte, sondern eine aufgeräumte, vereinfachte Ansicht.

    So wird das Web entrümpelt

    Und noch ein kurzer Einschub: Fürs Entrümpeln von Websites gibt es noch weitere Möglichkeiten:

    • Man kann den Lesemodus des Browers verwenden. Den gibt es fast in allen modernen Browsern und er funktioniert immer in etwa so, dass ein Buchsymbol in der Adressleiste auftaucht, über das man ihn aktiviert. Bei Firefox heisst er Leseansicht und wird über die F9-Taste aktiviert. Bei Edge erscheint die Leseansicht als kleines Buchsymbol am rechten Rand der Adressleiste. Safari hat übrigens sogar eine Voreinstellung, um bestimmte Websites immer im Reader-Modus darzustellen.
    • Eine Ausnahme macht übrigens nur Chrome. Er hat keinen Lesemodus, aber man kann sich mit einer Erweiterung behelfen, zum Beispiel mit Reeader.
    • Es gibt auch Webdienste, die eine aufgeräumte Ansicht einer Website generieren. Meine Empfehlung ist seit Jahren printfriendly.com (Man muss kein Internetausdrucker sein, um Printfriendly gut zu finden).

    Beitragsbild: José Alejandro Cuffia/Unsplash, Unsplash-Lizenz

    #Plattformisierung