KI grast Blogs und Newsseiten ab, liefert Antworten ohne Credits und entzieht unabhängigen Seiten Reichweite, Leser und Spenden – bis die Quellen versiegen. 👇

https://www.kuketz-blog.de/kommentar-ki-frisst-ihre-eigene-grundlage-auf/

#KI #Datenschutz #Bloggen #OpenWeb

Kommentar: KI frisst ihre eigene Grundlage auf

KI grast Blogs und Newsseiten ab, liefert Antworten ohne Credits und entzieht unabhängigen Seiten Reichweite, Leser und Spenden – bis die Quellen versiegen.

@kuketzblog und u.a. deswegen gehört KI für mich Verboten es ist automatisierte Raubkopie nichts anderes.
@kuketzblog
Das ist ja wie im wirklichen Leben.
GitHub - TrustAI-laboratory/Website_Prompt_Injection_Demo: Website Prompt Injection is a real world attack that allows for the injection of prompts into an AI system via a website's document. This technique exploits the interaction between users, websites, and AI systems to execute specific prompts that influence AI behavior.

Website Prompt Injection is a real world attack that allows for the injection of prompts into an AI system via a website's document. This technique exploits the interaction between users, websi...

GitHub

@truls46 @kuketzblog Denke oft darüber nach. Die Beispiele da sind aber zu offensichtlich, KI lernt viel zu schnell. Am Anfang - vor jeder Auslieferung von trainingsrelevantem Content - müsste eine treffsichere Mensch/KI-Agent-Erkennung laufen. Der dann von der Webseite speziell und ausschließlich an den KI-Agenten ausgelieferte Content müsste dann ...

...und hier verliert der Folterknecht sich still und ernst in Werkzeugträumen.

@kuketzblog Standardverhalten von Parasiten.

@kuketzblog wie ich es bereit schon geschrieben habe und mittlerweile mein Blog ziert:

"Erst wenn das letzte Blog verwaist, das letzte Forum geschlossen und der letzte Stack-Overflow-Beitrag verschwunden ist, werdet ihr verstehen, dass man KI nicht mit Müll trainieren kann."

@magicmarcy @kuketzblog ... Dann ist das letzte Buch gestorben & die letzte Autorin hat aufgehört.
@magicmarcy @kuketzblog kann man, das ist doch eines der Probleme.
@kuketzblog – Der neue Idealismus besteht wohl darin, frische Inhalte für das Training der #KI-Modelle zu erstellen, um mittelbar darüber seine Botschaften zu verbreiten.

@kuketzblog

"Was bleibt, wenn die Quellen verstummen? Keine besseren KI-Antworten, nur schlechtere – und ein Netz, das sich selbst aushöhlt. Das ist kein dystopisches Szenario, sondern eine logische Konsequenz dessen, was gerade passiert."

@kuketzblog ich benutze weiterhin mein RSS Reader und mein Fediverse um für mich interessante Seiten zu lesen, da benutze ich keine KI.

@kuketzblog

Ich hab schon festgestellt, dass bei KI-Antworten teils wichtige Details fehlen. Also google ich lieber ganz klassisch und lese eben mehrere Seiten. So benutze ich doch noch oft die klassische Suche. Auf die Art wusste ich mehr als meine Schwiegermutter, die einfach Gemini befragt hatte.

KI ist dann nützlich, wenn gewisse Informationen nicht so einfach zu finden sind. Häufig, weil es keine klassischen Foren gibt. Weil Webseiten, auf denen das stand, plötzlich verschwinden. Dann bin ich froh, wenn die Information in einem Trainingsdatensatz überhaupt noch existiert.

Ich habe mir angewöhnt, zwei KIs zu befragen. Stellte sich heraus: ChatGPT lag daneben, Perplexity hatte recht. Das ist auch oft ein Problem, außer unvollständigen Informationen.

KI eignet sich, um mal eben schnell einen längeren Text zusammenzufassen - einfach, um zu wissen, ob da in etwa drin steht, was ich suche. Oder um sich über ein Thema einen Überblick zu verschaffen. Es

ersetzt aber keine tiefer gehende Suche. Es ersetzt nicht, echte Menschen zu fragen, Angebote einzuholen.
@kuketzblog
@kuketzblog K"I" ist das Ende vom Internet. Es ist bereits das zweite Ende, nachdem Bigtech angefangen hat im Netz zu wüten.
@kuketzblog
Ich habe deshalb den Zugriff auf meine Websites aus den USA, China und Russland über die config Datei gesperrt. Ist zwar keine endgültige Lösung aber ich sehe deutlich weniger Crawler im Log.
@sweber_de ach was? Wie hast du das denn gemacht?

@chotemysl
in der Datei ".htaccess" folgendes eingetragen:

GeoIPEnable On
SetEnvIf GEOIP_COUNTRY_CODE RU BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE CN BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE US BlockCountry
SetEnvIf GEOIP_COUNTRY_CODE HK BlockCountry
SetEnvIf Referer your-server\.de SpamBot
Deny from env=BlockCountry
Deny from env=SpamBot

🤷‍♂️

@sweber_de ah, danke. Muss ich mal schaun.