Es ist schon so weit … 😳 #dieKaenguruRebellion
https://marcuwekling.reimkultur-shop.de/products/die-kaenguru-rebellion
Es ist schon so weit … 😳 #dieKaenguruRebellion
https://marcuwekling.reimkultur-shop.de/products/die-kaenguru-rebellion
@marcuwekling Bestätigt.
Wobei zu erwähnen ist, dass wohl ein Scherzbold den Artikel Die_Schnapspraline erstellt hat, der in Wikipedia schon am 9. März wieder gelöscht wurde, in den Halluzinationen der KI aber fortbesteht.
Trollversuch geglückt.
(nein, ich war’s nicht)
Danke, das wollte ich auch gerade posten. Dass "die KI-Chatbots" auf krasse Weise Fakt und Fiktion vermischen, ist ja richtig - das Bsp taugt allerdings nur bedingt dafür, wenn die initiale Vermischung ohne KI erfolgte.
Wie selbst hier im - nach eigenem Selbstverständnis so aufgeklärt-kritischen fediverse - sowas dann nicht zum 1.Mal ungecheckt geliked und fröhlich als trending post retrötet wird, ist schon auch ziemlich bedenklich & Teil des nicht-nur-KI-Problems.
@NaMi es geht schon auch darum, dass es natürlich handfeste, erwartbare Interessen gibt, Fakten und Fiktion zu vermischen. Wollte der Crawler bzw. die Datenverarbeitung dann einen seriös recherchierenden Menschen imitieren und/oder entlasten, dann wären mehrere Stufen und Ebenen der Plausibilitätsprüfung eigentlich die Mindestvoraussetzung. Ich glaube, darum ging's!
Zumal die Fiktion ja gleich im Absatz danach im Buch wieder entkräftet wurde.
@NaMi und ja, abseits vom Buch natürlich auch in der Wikipedia. Wollte eine "KI" hier auf eine eigene, unabhängige Prüfung vollständig verzichten und der Wikipedia immer zu 100% vertrauen, dann sollte das nur für Artikel mit einer bestimmten Mindestbestandsdauer gelten. IMHO.
@hannes99 das sauber zu prüfen ist gar nicht so einfach -- und entsprechend auch kaum KI-automatisierbar.
Als aktuell krasses Beispiel: versuch mal aus Wikipedia verlässliche Infos zur Geschichte Israels zu bekommen -- und vergleich die Inhalte der Deutschen und der Englischen Wikipedia.
Und dann mach das gleiche mit den Versionen vor 2023.
Die „akzeptierte Wahrheit“ hat sich in der Englischen massiv verändert.
@ArneBab ja, 100% Wahrheitsfindung wird leider immer schwerer, auch für Menschen. Aber hier hat die "KI" ja nicht mal den Versuch unternommen, obwohl sie über riesige Datensätze und Datenmodelle verfügt.
Dass man einen erst kürzlich erstellten Wikipedia-Artikel nicht gleich direkt einfach so übernehmen sollte, versteht sich ja von selbst. Zumal dieselbe KI bei der Korrektur, nachdem es den Wiki-Artikel längst nicht mehr gab, wiederum ja auch nicht gerade Eile walten ließ.
@hannes99 Das Missverständnis ist hier schon zu glauben, dass KI einen Versuch unternimmt.
Auch wenn die Systeme als Menschen maskiert sind, sind sie trotzdem nur statistische Vorhersagemaschinen. Sie haben nur den "Willen", der sich aus einer Zusammenfassung im Netz sichtbarer Aktivitäten ergibt, oder den ihnen Leute explizit von außen eingeben.
Mit Präprompting u.ä., also mit Priming, damit sie hoffentlich die richtigen Teile des Netzes nutzen, um zu handeln.
@NaMi @marcuwekling
@ArneBab das eine schließt das andere doch überhaupt nicht aus. Das kann man jedem Computerprogramm "beibringen" und natürlich auch darauf spezialisierten (Teil-) "KI"s... die Frage ist doch eher, wie gut.
@hannes99 Suchmaschinen scheitern daran seit Jahrzehnten, obwohl sie eins der profitabelsten Geschäfte im Netz sind, deswegen bin ich nicht sicher, ob wir hier nicht eher einen Fall von 1425 haben:
https://xkcd.com/1425/
Du hast ja nicht nur mit der Frage „wie finde ich in einer statischen Welt Infos“ zu tun, sondern mit einer Umgebung, in der konstant (SEO-) Leute versuchen, jede Schwachstelle in deinen Methoden zu unterlaufen und damit Profit machen.
@ArneBab ja, das stimmt schon.