Meine ChatGPT-Nutzung wandelt sich über die Jahre von einem erstaunten „Wow!“ über „Guck ich als erstes, weil es so einfach ist“ und „Guck ich nur, wenn ich woanders nichts finde.“ hin zu „Nutze es fast gar nicht mehr und entwickle eine Aversion“, weil mich die vielen falschen Antworten und das Mindfuck-artige, pseudo-beziehungsorientierte Kommunikationsmuster unglaublich triggert und aggro macht, besonders wenn eins die ständigen falschen Antworten korrigiert.
@ennopark Ja, das schlimmste an Chat-basierten LLMs ist das ständige Gaslighting. Und natürlich die damit verbundene Unsicherheit, ob die KI das zufälligerweise nur bei Themen macht, von denen man selbst Ahnung hat, oder bei allen Themen, aber es einem bei den meisten Themen eben nicht auffällt.

@stitzl Nur ist dies kein bewusstes Gaslighting: LLM sind einfach "nur" ziemlich kompetente Textzusammenfasser. Wenn diese Maschinen Dir gegenüber auf Unfug bestehen, liegt's einfach an den ungehörigen Mengen Unfug, Quatsch und toxischem Verhalten, die im Internet zu finden sind.

@ennopark

@taschenorakel

„Halluzinationen“ liegen nicht an der Qualität der Trainingsdaten, sondern an der Technologie und würde auch passieren wenn die Trainingsdaten nur aus den besten und wahrsten Texten bestünden die die Menschheit je produziert hat.

Dass sie Blödsinn wiederholen der sich in die Trainingsdaten geschlichen hat, ist ein anderes Problem :)

@stitzl @ennopark