@derpostillon hats geschafft. #Gemini benutzt ihn jetzt auch als vertrauenswürdige Quelle.
@derpostillon hats geschafft. #Gemini benutzt ihn jetzt auch als vertrauenswürdige Quelle.
@geeeero @superjan73 @agowa338 @derpostillon Das Problem hier ist, dass der Prozess fehlerhaft designt ist.
(und es ist mir klar, dass Google das so will, wegen seiner „Geschäftsziele“)
Gerade wenn ein LLM etwas zusammenfasst, sollte man darauf bestehen, dass es jede einzelne Behauptung mit Quellen belegt. Wegen Überprüfbarkeit und eben Quellenanalyse.
Dann gebe es aber keine Notwendigkeit, eine KI-Zusammenfassung zu produzieren, das "Ur-Produkt" würde reichen.I
Ohne den restlichen Kontext zu kennen, wie query, und Resultate, kann es komplett sein, dass das LLM hier komplett korrekt das Top-Suchergebnis der „klassischen“ Suchengine zusammengefasst hat.
Dann sind wir bei Dingen wie der „Gemini App“, wo die Suchergebnisse gleich komplett weggelassen werden. Wenn da keine Quellenverweise nach jedem Absatz dabei stehen, dann kann man den Text gleich auf die Kippe werfen, wie will man wissen, ob das LLM das recherchiert, oder aus Trainingsdaten antwortet?
Statt einen Analyse eines Posts auf seinen Wahrheitsgehalt (mit Referenzen, die Fakten bestätigen oder widerlegen), 3 Absätze "Dave ich kann das jetzt für dich machen", wo das Ding erklärt, dass es ohne seine Werkzeuge zur Websuche, die in den Anweisungen geforderten Quellen nicht liefern kann.
Punkt ist, wer auf das Trainingsdaten-Wissen von LLM vertraut ist, kann genauso gut jedem menschlichen Quacksalber glauben.
Habe ich erwähnt, dass Menschen leider bei Menschen dazu neigen? (Der ganze Neoliberalismus z.B. hängt am rationalen Homo Oeconimicus sonst fallen alle ihre Gedankenspiele zusammen. Das Menschen aber nicht sonderlich rational sind haben Psychologen längst bewiesen, also wissenschaftlich korrekt, mit Studien, usw. Aber kein Mainstream-Okonom würde das jemals akzeptieren, die betrachten sich über normaler Wissenschaft.)
Also wieso sollten Menschen nicht auch LLM glauben?
@weirdfish @yacc143 @geeeero @superjan73 @derpostillon
ChatGPT by desing halluziniert immer. Manchmal sind diese Träume halt nur identisch mit der Realität...
@weirdfish @geeeero @superjan73 @agowa338 @derpostillon Sigh, ein LLM-basiertes System, besteht aus verschiedenen Komponenten. Ja, LLM „halluzinieren“ (wobei der Begriff irreführend ist, sie erzeugen einfach wahrscheinliche Tokens).
Mit den korrekten Prompts, den korrekten Werkzeugen, kommt man nicht in die Verlegenheit, dass das LLM anfängt, Tokens auszuspucken, primär basierend auf seinem Trainingswissen, sondern basierend auf dem korrekten Kontext.
@yacc143 @weirdfish @geeeero @superjan73 @derpostillon
Tja, aber wenn du "den korrekten Prompt" weißt, weißt du auch bereits was das Ergebnis ist...
@agowa338 @weirdfish @geeeero @superjan73 @derpostillon Nicht zwingend, der Punkt war, ich will keine Antwort von dem LLM aus „seinen Trainingsdaten“. Ich bevorzuge es bei weitem, dass das LLM einen Prozess orchestriert, wo es die Antwort findet und belegen kann.
Habe ich mir vor paar Wochen bei der Demo unseres CEO „wie ich AI nutze“ mir gedacht, der hat das cool gefunden, dass ChatGPT unsere Firma kennt. Ich habe mir gedacht nicht cool.
Weil das ein „Fakt“ ist, auf dem das Ding die Antwort aufbaut, das komplett ungeprüft ist. Es kann komplett erfunden sein. In diesem Fall war es cool weil alle im Call die Firma gekannt haben und auch aus dem Stehgreif kontrollieren konnten wer aktuell CEO ist.
Mein Punkt bezog sich darauf das LLM auf Schiene zu halten dass es brav Suchassistent spielt. "sinnvolle queries" entwirft, "beurteilt" welche Ergebnisse relevant sind, …
@flohlaus @superjan73 @geeeero @agowa338 @derpostillon
Als langjähriger Katzenbesitz möchte ich darauf hinweisen, dass das "verfickte" vor Katze gehört, und nicht vor Laserpointer...
@flohlaus @superjan73 @geeeero @agowa338 @derpostillon
Mach ich auch im echten Leben so.
Wirkt super. 😁
@lostinweb @geeeero @derpostillon
CEO-simulator spielen. Texte sind auf dem gleichen niveau. Meistens sogar noch etwas besser.
@lostinweb @agowa338 @derpostillon Texte bearbeiten, umformulieren, übersetzen, so was.
LLMs sind Sprachmodelle, die einfach immer das nächstwahrscheinliche Token (Wort, Wortkombination) ausgeben. Dass sie oft "richtig aussehende" Antworten liefern, ist quasi Zufall.
@lostinweb @geeeero @derpostillon
Tbh, in 99.99999% der Fälle hätte ich da lieber den Prompt als das Ergebnis...
oh vielen Dank, ich findes das sehr informativ! wisst ihr, ob das auch für Hunde relevant ist?
@agowa338
Der screenshot zeigt Text eines Suchergebnisses mit der KI-Zusammenfassung eines satirischen postillon Beitrags zum Thema "Katze hat Laserpointer Punkt verschluckt – was nun" Teile des Textes sind von Hand unterstrichen, um die Absurdität zu betonen.
Text aus der automatischen Texterkennung meines Betriebssystems:
"• Übersicht mit KI
Wenn Ihre Katze einen Laserpointerpunkt verschluckt hat, handelt es sich um einen Notfall, der sofort einen Tierarzt erfordert, da der Punkt die Magenschleimhaut durchbrennen und gefährliche Komplikationen verursachen kann. Bringen Sie Ihre Katze sofort in eine Tierarztpraxis oder Tierklinik. Die Katze muss umgehend operiert werden, um den Punkt zu entfernen und weitere Schäden zu verhindern.
Symptome, die auf das Verschlucken eines Fremdkörpers hinweisen:
• Würgen und Speicheln
• Erbrechen
• Verweigerung von Futter
• Verstopfung (kein Kotabsatz)
• Sehr schmerzempfindlicher Bauch
• Apathie oder Lethargie
• Hecheln und Atembeschwerden
Warum ein Laserpointerpunkt gefährlich ist:
• Der Laserpointerpunkt ist ein kleiner, aber oft unverdaulicher Gegenstand."
@agowa338 Dieser Bot wurde von @stekopf gebeten, einen alternativen Text für Ihr Bild zu erstellen. Wenn Sie zustimmen, erteilen Sie altbot eine einmalige Erlaubnis, diesen spezifischen Beitrag zu verarbeiten. Die gesamte Verarbeitung erfolgt privat ohne Dritte. Alle Inhalte werden nach der Verarbeitung gelöscht.
Vollständige Datenschutzrichtlinie: https://github.com/micr0-dev/Altbot/blob/main/PRIVACY.md
Stimmen Sie zu? Antworten Sie mit 'Y' oder 'Yes', um fortzufahren.
@agowa338 @derpostillon kann man das bitte nutzen, um endlich gegen die Plagiatsmaschine vorzugehen?
Dann werden Helene Fischer und der Postillon uns alle retten.
@agowa338 @derpostillon geil
jedes mal wenn mich jemand belehren will, dass sogenannte KI die Lösung für Dinge wäre, kippe ich lachend vom Stuhl
Mein post war von Oktober. Und selbst damals hat nicht jeder diese Bullshit Antwort bekommen. Das ist die Natur von LLMs, dass du nie weißt, was du als Ergebnis bekommst...
Weiß jetzt aber auch nicht, ob Quelle Facebook und YouTube so viel besser ist...