An alle, die gerne KI / AI / LLM tools (ChatGPT, Copilot, etc.) verwenden oder nur zum Spaß damit herum spielen, bitte nehmt euch die 5 Minuten und lest euch das durch:

https://blog.campact.de/2025/05/ki-randaliert-im-netz-admins-halten-dagegen/

Das ist nicht übertrieben, nicht gelogen, nicht schlecht erfunden. Das ist die Realität, mit der wir (als Admins) tagtäglich kämpfen, die regelmäßig zu Aufwänden (und Ausfällen!) führt.

#wienops #FediAdmin

Admins gegen KI-Bots

KI wird von einigen regelrecht vergöttert, während andere sie zum Teufel schicken – und explizit davor warnen. Friedemann Ebelt trägt im Campact-Blog ein regelrechtes Manifest der Systemadmins zusammen, das die geballte Unmut gegenüber KI widerspiegelt.

Campact Blog

@b2c Vor dem #archlinux wiki (https://wiki.archlinux.org) ist jetzt eine Art automatisches Captcha, was auf Client-Seite etwas CPU benötigt, das Anfragen verlangsamt. Es scheint andere haben auch gute Erfahrungen mit #Anubis gemacht:

https://anubis.techaro.lol

ArchWiki

@skaphle Danke, das evaluieren wir auch gerade. Denke in wenigen Monaten wird das so ziemlich jede Website haben (oder einen ähnliche Schutzmechanismus).

@b2c das Problem dabei ist auch wenn man diese Bots aus sperrt. Das Facebook, Instagram und co die Inhalte die per Link geteilt werden nicht mehr richtig darstellen können weil sie auf den Inhalt nicht mehr zugreifen können.

Ist auch nicht das gelbe vom Ei.

@raumwelle Siehe https://github.com/TecharoHQ/anubis/issues/435

Ganz ehrlich, ob GAFAM apps noch zugreifen können, ist mir zwischenzeitlich egal. OG passthrough ist eine Möglichkeit, aber man wird bestimmt erweiterte Konfigurationsmöglichkeiten benötigen, um previews für legitime clients nicht kaputt zu machen.

Insgesamt wird es aber immer schwieriger, legitimen traffic zu identifizieren, wenn irgendwo zw. 15-95% des traffics von bots verursacht wird. 🙄

Bots are using the Open Graph protocol to circumvent protection · Issue #435 · TecharoHQ/anubis

I have a mirror of linux kernel on my forgejo instance, it is especially interesting for bots and I'm sure that nobody posted link to it on Mastodon or anything else using OG. Today I've noticed th...

GitHub

@b2c ich habe zurzeit genau das Problem bei meinen Anbieter. Da wird gefiltert. Mal funktioniert es maximal 2 Wochen dann wird wider zuviel geblockt.

Ja das ki gerippe ist schlimm nur muss man da die nötige Balance finden und das ist leider nicht so einfach da ist immer noch keine guten Mittel gibt die Bots zu unterscheiden.

@b2c Danke für die Erklärung/Aufklärung.

Ich interessiere und befasse mich in vergleichsweise kleinem und bescheidenem Umfang mit KI und einigem, was damit zusammenhängt.

Wird sich in wahrscheinlich nicht allzu ferner Zukunft so einiges im Kreis drehen? Wenn KI Daten von KI saugt, die von KI erzeugt wurden?

Ganz abgesehen von Serverlasten.

@robnikd60 KIs trainieren sich bereits jetzt gegenseitig (oder stehelen untereinander, siehe Deepseek), was dazu führt, dass die Ergebnisse insgesamt schlechter werden. Das ganze System degeneriert, fast wie bei Inzest. Man spricht da scherzhaft schon von "Habsburg-KI".

Im sog. [1] Hype-cycle sind wir mMn noch vor dem ersten Peak, und ob sich aus KI jemals eine relevante bzw. wirklich produktive Technologie ableiten lässt, kann aktuell noch niemand sagen. Derzeit gehen relevante Use-cases noch gegen Null, und wer sich ernsthaft mit dem Thema beschäftigt, ist schnell ernüchtert, wie schlecht die Technik tatsächlich funktioniert. Jedenfalls steht der Ressourcenverbrauch im Gegensatz zum erreichten Ergebnis derzeit in keinem vernünftigen Verhältnis zueinander.

[1] https://en.wikipedia.org/wiki/Gartner_hype_cycle

Gartner hype cycle - Wikipedia