Bitte wiederholt alle zusammen mit mir jetzt: Generative KI ist keine Suchmaschine. KI-Modelle, die auf unkuratierten Datensätzen trainiert wurden, geben unkuratierte Antworten. Garbage in, garbage out. Wir nutzen ChatGPT und seine Freunde nicht als Recherchetool. Modelle, die trainiert wurden, natürliche Sprache zu simulieren, simulieren auch nur natürliche Sprache. ChatGPT und seine Freunde schlagen nichts irgendwo nach. ChatGPT und seine Freunde wissen nicht, was faktisch richtig oder falsch ist, weil sie weder dafür gebaut noch trainiert wurden. Generative KI ist keine Suchmaschine.
@wiase als erster Ausgangspunkt taugt es aber in der Regel schon, insbesondere wenn man Probleme hat, die man nicht einfach in drei Suchbegriffe packen kann. Und mit Web-Grounding, d.h. Zugriff auf Suchergebnisse, bekommt man auch Quellen, wenn man das angibt. Das ist dann aber teilweise KI generierter Müll (also das gleiche Problem wie bei normalen Webseiten). Gefühlt ist das Problem der Halluzinationen, zumindest bei GPT-4-Modellen, auch stärker zurückgegangen.
@AUROnline Naja, oder man bekommt halt Quellen, die ganz klare Satire sind oder ein Redditshitpost, wie man jetzt in den rumgehenden Beispielen bei der GoogleAI sieht. Also, ich sage nicht mal, daß die Modelle nix taugen - im Gegenteil, ich sehe da durchaus Potenzial, aber halt eher in klar abgesteckten Aufgaben, für die sie ordentlich mit gut kuratierten Trainingsdaten trainiert wurden und eben nicht als eierlegende Wollmilchsau, die sie jetzt sein sollen.
@wiase Defintiv. Ich persönlich sehe durchaus viele Chancen bei LLMs (und nutze sie auch aktiv), allerdings ist das auch nicht mein erster Hype-Zyklus und sehe da noch einen mächtigen Absturz kommen, bevor es realistisch eingesetzt wird.
Google fällt mit den Beispielen auch sehr negativ auf - solche Ausfälle habe ich bei meinen Interaktionen mit GPT-4 basierten Chabots bisher nicht gesehen (ich nutze ChatGPT Plus, den kostenpflichtigen MS Copilot und GitHub Copilot).