@derpostillon hats geschafft. #Gemini benutzt ihn jetzt auch als vertrauenswürdige Quelle.

https://www.der-postillon.com/2017/05/laserpointer.html

#AI #LLM

@agowa338 @derpostillon Es macht mich immer wieder fassungslos, wie viele Leute LLMs als Suchmaschine missbrauchen.
@geeeero @agowa338 @derpostillon gerade bei Gemini bekommt man diese KI Schnipsel doch, wenn man eine vormals ganz normale Suchmaschine benutzt?!
@superjan73 @agowa338 @derpostillon Ja, das sind aber immerhin (so viel ich weiß) Zusammenfassungen der "normalen" Suchergebnisse, die darunter stehen, und nicht völlig ins Blaue hinein fabulierte "Antworten" eines Chatbots.

@geeeero @superjan73 @agowa338 @derpostillon Das Problem hier ist, dass der Prozess fehlerhaft designt ist.
(und es ist mir klar, dass Google das so will, wegen seiner „Geschäftsziele“)

Gerade wenn ein LLM etwas zusammenfasst, sollte man darauf bestehen, dass es jede einzelne Behauptung mit Quellen belegt. Wegen Überprüfbarkeit und eben Quellenanalyse.

Dann gebe es aber keine Notwendigkeit, eine KI-Zusammenfassung zu produzieren, das "Ur-Produkt" würde reichen.I

@yacc143 @geeeero @superjan73 @agowa338 @derpostillon aber dann muss man die Quellen auch überprüfen, die sind nämlich auch oft nur halluziniert.
@weirdfish @geeeero @superjan73 @agowa338 @derpostillon Natürlich, wobei perplexity selten dazu neigt, die zu halluzinieren (kann es vermutlich nicht vom Systemdesign), aber es ist nicht perfekt bei korrektem Zuordnen der besten „Beweise“ für die jeweiligen Behauptungen.
@yacc143 @geeeero @superjan73 @agowa338 @derpostillon Chat GPT halluziniert definitiv seine Quellen

@weirdfish @geeeero @superjan73 @agowa338 @derpostillon Sigh, ein LLM-basiertes System, besteht aus verschiedenen Komponenten. Ja, LLM „halluzinieren“ (wobei der Begriff irreführend ist, sie erzeugen einfach wahrscheinliche Tokens).

Mit den korrekten Prompts, den korrekten Werkzeugen, kommt man nicht in die Verlegenheit, dass das LLM anfängt, Tokens auszuspucken, primär basierend auf seinem Trainingswissen, sondern basierend auf dem korrekten Kontext.

ChatGPT ist noch immer primär ein geschlossenes System, das wenig Werkzeugnutzung zeigt.