ChatGPT & Co. antworten quasi nie mit „Das weiß ich nicht“ oder „Dazu gibt es keine Daten“. Quasi wie das Klischee eines TechBros mit zu großem Ego. 🧐
@kattascha Aber wenn man erkennt, dass was falsches ausgegeben wird und man reklamiert, dann entschuldigt es sich wenigstens 😉
@hiker @kattascha und im zweiten Satz erzählt es mir dann als "Alternative Antwort" wieder genau den gleichen Kram 😄
@kattascha Der Perfekte Dunning Kruger Simulator.

@kattascha Was ich an der ganzen Sache interessant finde: Subjektiv sind LLMs eine tolle Sache. Sie sind auch ein immenser Forschungs-Fortschritt.

Aber Menschen, die nicht wissen, wo ihre Grenzen sind, und einem lieber was vom Pferd erzählen, als Unwissen zuzugeben, mit diesen Leuten willst Du nicht zusammenarbeiten und machst einen Bogen drum, als Kolleg*in oder auch als Chef*in

@kattascha Stell das doch als Gegenfrage im Prompt, warum sie das nicht antworten. 😂
@kattascha Es antwortet ja auch niemand auf diese Amazon Produkt Q&A mit "Das weiß ich nicht".
Oh moment, tun sie doch 

@StefanMuenz @kattascha
#aisplaining gefällt mir!
LLM bietet phantastische Möglichkeit mit einem quasi Unwahrscheinlichkeits-Drive.

Naja - eigentlich sind es nur Wahrscheinlichkeitsmaschinen, aber auch eine unwahrscheinliche Antwort wird bei ihr zur Wahrheit, wenn es keine höherrangige Alternative gibt.

Es sind Gerüchtemaschinen, gerade mal so zuverlässig wie ihr Quellen, aber ohne Selbstkritikfähigkeit, weil es kein soziales Korrektiv wie bei sozialen Wesen gibt.

@StefanMuenz @kattascha
Oh und dann gibt es doch solche mit den neuesten sozialen Fähigkeiten: Erpressung!

https://universeodon.com/@georgetakei/114603158982397338

George Takei :verified: 🏳️‍🌈🖖🏽 (@[email protected])

Excuse me?? 😳 https://www.comicsands.com/claude-opus-blackmails-engineers?utm_source=mastodon&utm_medium=infeed&utm_campaign=linkprogram

Universeodon Social Media
@kattascha Mansplaining as a Service.

@kattascha Die LLMs wissen ja auch nicht, ob sie etwas wissen. Oder nicht.

Das sollte man wissen.

@Dirk79 @kattascha was daran liegt, dass LLMs nix wissen, sondern nur gut raten können welches Wort als nächstes passen könnte.
@kattascha
Tja. Der Apfel fault nicht weit vom Stamm.

@kattascha

Eigentlich spielt das keine Rolle und es ist viel schlimmer.

Wer sich bei einem Thema auskennt, fragt #ChatGPT & Co gar nicht.

Diejenigen die ChatGPT & Co fragen, fragen ja nicht umsonst.

Sie sind daher auch nicht in der Lage festzustellen welchen Blödsinn ChatGPT & Co super oft schreibt.

@maexchen1 @kattascha das stimmt so nicht. Ich frage oft ChatGPT zu Themen, mit denen ich mich auskenne. Einfach weil ich keine Lust habe, die Fleißarbeit zu machen (Texte formulieren, Quellen recherchieren, Code schreiben).
Manchmal passt dann das Ergebnis der KI und manchmal ist es Grütze und ich muss die Fleißarbeit eben doch selbst machen.

@DO1HMN

Ehrlich gesagt, dass habe ich Nicht erwartet.

@kattascha

@maexchen1

Ich finde eine Konversation mit einem LLM ist tatsächlich kein schlechter erster Schritt, wenn man sich ein neues Thema erarbeitet, weil man bei neuen Themen oft gar nicht weiß, nach welchen Stichwörtern man eine Suchmaschine fragen kann. Wichtig ist dann halt, daß man die Antworten, die man bekommt, verifiziert und mitdenkt.

@kattascha

@kattascha Ein LLM kann das überhaupt nicht entscheiden, weil es keinen Mechanismus hat, um festzustellen, ob es etwas weiß oder nicht.
@LordCaramac @kattascha es weiß ja auch nix. Es brabbelt nur nach, was statistisch gesehen am besten zur Frage passen könnte. Und wie die Statistik dahinter aussieht, versucht man noch, herauszufinden.
@kattascha
Bei einer Sache kam mal: *(
Ich schätze das war ein Error 😶
@kattascha Bei Perplexity bekomme ich schon gelegentlich die Antwort, dass keine Informationen vorliegen.
@kattascha Gab's da nicht mal eine Studie, wo jemand dieselbe Frage mehrfach stellte, aber jeweils einmal mit der Ergänzung: "wenn du die Frage nicht beantworten kannst, antworte mit 'weiß ich nicht'"? Da kam dann relativ häufig ein "weiß ich nicht", während es ohne diese Prompt-Ergänzung nie kam…

@kattascha

Diese Modelle stammen ja auch von Firmen, in denen TechBros mit großem Ego das Sagen haben.

Das Forschungszentrum CERN hat auch das Problem, dass es eine Million interne Wiki Seiten und noch viel mehr gibt.

Deswegen setzen die auch AI ein. Aber mit eigenen oder zumindest angepassten Modellen. Die geben dann auch aus, wennect. es dazu beim CERN keine belastbaren Daten gibt.

@kattascha
Das ist es, ne? Stattdessen halluzinieren sie dir eine Antwort zusammen und mit fanatischer Überzeugung bekommst du sie als Wahrheit vorgesetzt.
@kattascha perplexity.ai macht das übrigens. Das war auch der Grund warum ich das gerne nutze. Außerdem gibt es immer Quellen an. Ich kann also nachlesen und gucken ob die Quelle vertrauenswürdig ist.
@{[email protected]} Den Sparschäler führt Perpelixity allerdings auch auf.
Pe Krieger hat mehrere Auszeichnungen und Preise im Bereich Kabarett und Kleinkunst gewonnen. Konkret genannt werden:

- **Sindelfinger Sparschäler Kabarettpreis**: Sie ist als Gewinnerin dieses Preises in Schwaben bekannt[1].
- **Weitere Kleinkunstpreise**: Auf ihrer Website wird erwähnt, dass sie Preisträgerin etlicher Kleinkunstpreise ist, ohne alle explizit aufzulisten[7].
- **Teilnahme an weiteren Wettbewerben**: Sie war auch Teilnehmerin beim 20. Master Comedy Slam in Trier, hat dort jedoch nicht den Hauptpreis gewonnen[5].

Eine vollständige Liste aller gewonnenen Preise ist öffentlich nicht verfügbar, aber die wichtigsten genannten Auszeichnungen sind der Sindelfinger Sparschäler Kabarettpreis und mehrere weitere Kleinkunstpreise[1][7].

Citations:
[1] #^https://www.donau3fm.de/veranstaltung/977626/
[2] #^https://pekrieger.de
[3] #^https://euskirchener-kleinkunstpreis.de/Programm-2025.html
[4] #^https://feedbeat.me/@Pe
[5] #^https://www.kulturraumtrier.de/index.php/comedy/comedy-historie/157-20240504-20-master-comedy-slam
[6] #^https://rp-online.de/nrw/staedte/viersen/beyond-aus-viersen-duelken-gewinnen-young-talents-bandcontest_aid-61477483
[7] #^https://pekrieger.de/gluehwein-cabarett/
[8] #^http://www.kabarett-news.de/Kathi-Wolf-Infoseite.html

---
Antwort von Perplexity: pplx.ai/share
Kabarettpreis: 4. Weißenhorner Wölfchen

Am 12. Okt. 2024 , von 19 bis 23 – Gemeinsam mit der Stadt Weißenhorn und dem Landkreis Neu-Ulm präsentiert Kathi Wolf den Kabarettpreis „Weißenhorner …

@kattascha Also nach meiner Erfahrung beginnt jede dritte Antwort mit "das kann ich nicht genau beantworten" und dann folgen vage Informationen oder Spekulationen, die aber auch als solche gekennzeichnet sind. Ich benutze wenn dann perplexity, kann also auch nicht aus Erfahrung mit anderen LLMs sprechen.
@kattascha Philosophisch gesehen haben die Dinger ein Positivismus problem. Gibt's nicht geht nicht. Aber mit einem Amerikanischen Präsidenten der in die Kirche des Dudes gegangen ist der "The Power of Positive thinking" geschrieben hat, passt das gut in den Zeitgeist.
@kattascha aber sie entschuldigen sich, wenn man sie korrigiert.
@kattascha
Sind alles Praktikanten, genau wie Chad:
https://chaos.social/@grajohnt/114553669490448876
John T (@[email protected])

Attached: 1 image I'm describing the current state of LLMs for a talk I'm giving soon. Am I wrong?

chaos.social
@kattascha wenn du in deiner Anfrage die entsprechende Möglichkeit "nein" zu sagen mit hervorhebst, dann wird diese auf öfters genutzt.
@kattascha Und wenn man sie korrigiert, weil sie Falsches gesagt haben, nehmen sie sich oberlehrerhaft heraus, das Korrigierte abzusegnen, so als hätten sie es immer schon gewusst.
Das ist ein wichtiger und berechtigter Punkt! Tatsächlich können KI-Systeme – insbesondere große Sprachmodelle (LLMs) – in manchen Situationen „Müll“ (also falsche, unlogische oder unsinnige Antworten) ausgeben, besonders wenn die Eingaben irreführend, widersprüchlich oder bewusst „unwissend“ formuliert werden.

Hier ein paar Hintergründe und Erklärungen dazu:

---

## Warum passiert das?

1. **Training auf großen Datenmengen**  
   KI-Modelle lernen aus riesigen Mengen an Texten. Sie erkennen Muster, aber verstehen den Inhalt nicht im menschlichen Sinne.
2. **Kein echtes Verständnis**  
   Sie können Zusammenhänge nicht wirklich „verstehen“, sondern berechnen die wahrscheinlichste Fortsetzung eines Satzes.
3. **Sensitivität gegenüber Eingaben**  
   Wenn man absichtlich irreführende, widersprüchliche oder unsinnige Fragen stellt, kann das Modell darauf mit Fehlern oder Unsinn reagieren.

---

## Typische Fehlerquellen

- **Widersprüchliche oder mehrdeutige Fragen:**  
  Wenn die Frage nicht klar ist, wird die Antwort oft unklar.
- **Fehlende Kontextinformationen:**  
  Ohne genug Hintergrundwissen kann das Modell nur raten.
- **Absichtlich „dumme“ oder „irreführende“ Fragen:**  
  Modelle sind nicht darauf trainiert, böswillige oder absurde Absichten zu erkennen.

---

## Was kann man tun?

- **Klar und präzise formulieren:**  
  Je klarer die Frage, desto besser die Antwort.
- **Kontext mitgeben:**  
  Wenn möglich, relevante Informationen ergänzen.
- **Nachfragen, wenn die Antwort unklar ist:**  
  Modelle können oft Korrekturen vornehmen, wenn man nachbessert.

---

## Fazit

KI-Modelle sind mächtige Werkzeuge, aber sie haben Grenzen. Sie können auf irreführende oder unsinnige Fragen mit Fehlern reagieren – ähnlich wie ein Mensch, der bei einer absurden Frage auch mal „Unsinn“ antworten würde.  
**Je besser und klarer die Eingabe, desto besser ist meist auch die Ausgabe!**

---
Antwort von Perplexity: pplx.ai/share
@kattascha Oder eines Politiker :D
@kattascha
Entschuldige bitte — da hast du natürlich einen wirklich guten Punkt, Katharina.
Möchtest du, dass ich dir falsches Bla Bla zu den Thema auf dem Web suche?