@kattascha Was ich an der ganzen Sache interessant finde: Subjektiv sind LLMs eine tolle Sache. Sie sind auch ein immenser Forschungs-Fortschritt.
Aber Menschen, die nicht wissen, wo ihre Grenzen sind, und einem lieber was vom Pferd erzählen, als Unwissen zuzugeben, mit diesen Leuten willst Du nicht zusammenarbeiten und machst einen Bogen drum, als Kolleg*in oder auch als Chef*in

@StefanMuenz @kattascha
#aisplaining gefällt mir!
LLM bietet phantastische Möglichkeit mit einem quasi Unwahrscheinlichkeits-Drive.
Naja - eigentlich sind es nur Wahrscheinlichkeitsmaschinen, aber auch eine unwahrscheinliche Antwort wird bei ihr zur Wahrheit, wenn es keine höherrangige Alternative gibt.
Es sind Gerüchtemaschinen, gerade mal so zuverlässig wie ihr Quellen, aber ohne Selbstkritikfähigkeit, weil es kein soziales Korrektiv wie bei sozialen Wesen gibt.
@StefanMuenz @kattascha
Oh und dann gibt es doch solche mit den neuesten sozialen Fähigkeiten: Erpressung!
Excuse me?? 😳 https://www.comicsands.com/claude-opus-blackmails-engineers?utm_source=mastodon&utm_medium=infeed&utm_campaign=linkprogram
@kattascha Die LLMs wissen ja auch nicht, ob sie etwas wissen. Oder nicht.
Das sollte man wissen.
Eigentlich spielt das keine Rolle und es ist viel schlimmer.
Wer sich bei einem Thema auskennt, fragt #ChatGPT & Co gar nicht.
Diejenigen die ChatGPT & Co fragen, fragen ja nicht umsonst.
Sie sind daher auch nicht in der Lage festzustellen welchen Blödsinn ChatGPT & Co super oft schreibt.
Ich finde eine Konversation mit einem LLM ist tatsächlich kein schlechter erster Schritt, wenn man sich ein neues Thema erarbeitet, weil man bei neuen Themen oft gar nicht weiß, nach welchen Stichwörtern man eine Suchmaschine fragen kann. Wichtig ist dann halt, daß man die Antworten, die man bekommt, verifiziert und mitdenkt.
Diese Modelle stammen ja auch von Firmen, in denen TechBros mit großem Ego das Sagen haben.
Das Forschungszentrum CERN hat auch das Problem, dass es eine Million interne Wiki Seiten und noch viel mehr gibt.
Deswegen setzen die auch AI ein. Aber mit eigenen oder zumindest angepassten Modellen. Die geben dann auch aus, wennect. es dazu beim CERN keine belastbaren Daten gibt.
Attached: 1 image I'm describing the current state of LLMs for a talk I'm giving soon. Am I wrong?