Hab gestern gesagt "Früher hieß es noch 'Wikipedia als Quelle ist Mist' und 'Glaub nicht alles was bei Wikipedia steht' aber der KI glaubt man heute alles! Wir sind verloren"

Und die Antwort war der Kracher.
"Die KI kann man nicht mit Wikipedia vergleichen. Bei Wikipedia werden die Kommentare von Menschen geschrieben. Die KI antwortet auf Fakten basiert."

Ich weiß echt nicht ob man da lachen oder doch schon heulen soll.

@nerdherz einzige Reaktion, gehen und den Kontakt beenden.

@seppini

wer mir damit daherkommt, dem erkläre ich mal kurz was Expertensysteme sind und wie die krachend in den 80ern/90ern gescheitert sind (abgesehen von einigen Nischen) und was LLM und GANs in Grundzügen sind.

Es ist halt so unglaublich viel Unwissem über KI im Umlauf und zu viele Journalisten machen nicht ihre Arbeit.

@nerdherz

@echopapa @seppini @nerdherz

Gibt es eigentlich glaubwürdige Schätzungen, wieviel Prozent der KI-Antworten halluziniert sind?

Ich meine, irgendwo 30% gelesen zu haben, mal 70%

Hat das mal jemand genauer recherchiert (falls überhaupt möglich)?

@Wanda @seppini @nerdherz

Wenn sich die Frage auf LLMs bezieht (also Claude, ChatGPT, Mistral und co):

Zwischen 0% und 100%, je nach Fragestellung.

Grob: Stellt Du eine "Mainstream"-Frage also etwas, was evtl. tausendfach im Trainingsmaterial vorkam, dann wird die Antwort oft nahe an einer korrekten Beantwortung liegen. Frägst Du dagegen etwas, wo das System wenig Trainingsmaterial hat, dann wird sehr viel höherer Wahrscheinlichkeit etwas herauskommen was manche Leute als "halluziniert" bezeichnen würden.

Für so ein LLM gibt es aber vereinfacht gesagt gar keinen Unterschied zwischen den Fällen:

Es versucht auf einen Text-Input einen möglichst gut passenden Text-Output zu konstruieren.