Meine ChatGPT-Nutzung wandelt sich über die Jahre von einem erstaunten „Wow!“ über „Guck ich als erstes, weil es so einfach ist“ und „Guck ich nur, wenn ich woanders nichts finde.“ hin zu „Nutze es fast gar nicht mehr und entwickle eine Aversion“, weil mich die vielen falschen Antworten und das Mindfuck-artige, pseudo-beziehungsorientierte Kommunikationsmuster unglaublich triggert und aggro macht, besonders wenn eins die ständigen falschen Antworten korrigiert.
(Vielleicht sollte ich dazu sagen, dass mein Provider mir ein halbes Jahr ChatGPT Premium „geschenkt“ hat, als ich Glasfaser bestellt habe, und ich die Gelegenheit nutze, um mir in der Kontroverse selbst ein Bild zu machen.)
Angestellte nutzen mit KI gesparte Zeit, um KI-Ergebnisse zu korrigieren

Generative KI hilft Angestellten laut Umfragen dabei, Zeit zu sparen. Allerdings kostet sie auch Zeit, um ihren Fehlern nachzuarbeiten.

heise online

@ennopark

Ich nutze Claude.ai, sowohl die Browserversion als auch die in die Entwicklungsumgebung integrierte Claude Code-Integration.

Gemini war gut, verursachte aber mit der Zeit Probleme – ich bin dann zu Claude.ai gewechselt und konnte deutlich produktiver arbeiten.

Die Browserversion nutze ich daher für allgemeine Aufgaben und Spezifikationen, die IDE-Version hingegen für die Programmierung.

@ennopark Diese Entwicklung war bei mir in wenigen Monaten. Meiner Orientierung geht wieder mehr zu Menschen, die ich fragen kann.
@ennopark Wir nutzen ChatGPT im Unternehmen. In der Analyse und Zusammenfassung von Texten (u.a. Interviews, Fachtexte) ist es wirklich gut.
Für alles andere: lieber nicht.
@Levold Das macht mir schon etwas Angst, dass Leute sich auf diese Textzussmnenfassungen im Produktiveinsatz verlassen, weil ChatGPT das überhaupt nicht „wirklich gut“ macht, sondern regelmäßig wichtige Details unterschlägt oder gar erfindet, was eins aber nicht merkt, wenn eins sich nicht wirklich intensiv mit dem Ursprungstext auseinandersetzt, wozu aber üblicherweise keine Zeit ist. Das wird uns noch so richtig um die Ohren fliegen.
@ennopark Da gebe ich dir recht. Beispiel sind Interviews. Workflow ist: Interviews führen u. dokumentieren, diese dann (ideal als PDF) in ChatGPt hochladen u. nach bestimmter Struktur auswerten lassen. Danach muss zwingend die Bearbeitung durch die Person erfolgen, die die Interviews geführt hat. Wenn ich das war, ergänze ich immer noch fehlende Inhalte oder bestimmte „Stimmungen“, Gewichtung von Aussagen usw. Du kannst KI nicht alleine arbeiten lassen, aber es vereinfacht Prozesse.
@ennopark Ausgefallene Ideen für Kochrezepte sind meine Kernanwendung. Da kann man nicht lügen. Und mit etwas Erfahrung weiß man auch selbst, ob die Mengen passen oder nicht.
@worthuelse Ich bin gerade beim Kochen ein solcher Noob, dass ich nicht selber merke, ob die Nengen stimmen. Lustig verkorkste Kochrezepte von LLMs sind doch längst ein eigenes Mem.
@ennopark du hast vollkommen Recht: Jedes Mal, wenn ich was frage, von dem ich wirklich Ahnung habe, sehe ich die Fehler. Was sehe ich also nicht an Fehlern, wenn ich nach mir Unbekanntem frage?
@FrauZeitlos Ganz genau dies.

@ennopark Ich frage prinzipiell und immer nach Quellen, wenn ich per LLM "recherchiere". Ohne Quellenbewertung kann man die Teile nicht sinnvoll benutzen. Das gilt aber eigentlich fürs gesamte Internet. In der Hinsicht sind LLM sogar eine Verbesserung, denn im Gegenssatz zu vielen Internet-Nutzer*innen, sind LLM willens und in der Lage, ihre Quellen zu nennen.

@FrauZeitlos

@taschenorakel @FrauZeitlos LLM was fragen und dann um Quellen bitten, funktioniert tatsächlich relativ gut, wenn sich per herkömmlicher Websuche nicht gleich was findet. Aber genau da lernt eins auch nachhaltig, wieviel Quatsch LLMs produzieren, wenn da immer wieder Quellen genannt werden, in denen das Behauptete dann gar nicht steht. Aber hey, Suchmaschinen spucken ja auch viele unbrauchbare Links aus…
@ennopark Gut so!
KI ist ein grosses Klimaproblem. Und ja KI ist voll mit Fehlern und gar nicht so großartig wie man uns weiss machen möchte. Ich benutze es nicht!
@nullbockgeneration Dabei müsste es kein Klimaproblem sein. Es gibt ja schon Bestrebungen, LLMs lokal zu nutzen, was dann auf der Basis von grünem Strom möglich wäre. Unsere Alltagshardware wird bald leistungsfähig genug sein. Da ist schon interessant, herauszufinden, welche Arten der Nutzung sinnvoll sein könnten. Die Art und Weise, wie die Konzerne es gerade entwickeln und ultra aggressiv vermarkten, macht es aber de facto zu einem gewaltigen Klimaproblem, da hast du völlig recht.
@ennopark Weshalb ich KI auch kritisiere ist, dass deren Einsatz in den meisten Fällen für #Desinformation der #Propaganda eingesetzt wird. Nicht nur in den USA besteht grosse Gefahr, sondern für uns alle!
@ennopark Ja, das schlimmste an Chat-basierten LLMs ist das ständige Gaslighting. Und natürlich die damit verbundene Unsicherheit, ob die KI das zufälligerweise nur bei Themen macht, von denen man selbst Ahnung hat, oder bei allen Themen, aber es einem bei den meisten Themen eben nicht auffällt.

@stitzl Nur ist dies kein bewusstes Gaslighting: LLM sind einfach "nur" ziemlich kompetente Textzusammenfasser. Wenn diese Maschinen Dir gegenüber auf Unfug bestehen, liegt's einfach an den ungehörigen Mengen Unfug, Quatsch und toxischem Verhalten, die im Internet zu finden sind.

@ennopark

@taschenorakel

„Halluzinationen“ liegen nicht an der Qualität der Trainingsdaten, sondern an der Technologie und würde auch passieren wenn die Trainingsdaten nur aus den besten und wahrsten Texten bestünden die die Menschheit je produziert hat.

Dass sie Blödsinn wiederholen der sich in die Trainingsdaten geschlichen hat, ist ein anderes Problem :)

@stitzl @ennopark

@ennopark dann... Lass es doch ganz! (Hatte erst eine kurze Spielphase, dann noch Einsatz als Formulierungshilfe weil es zwar keine richtige Ahnung hat aber gut im Wörter schätzen, dann Ende und Aversion.)

@ennopark

Die "Guck ich als erstes" Nutzung sehe ich bei uns auf Arbeit immer noch. Fand erschreckend wie mit einem Linux Fehlerbildschirm umgegangen wurde. Ich kannte den auch noch nicht, habe aber direkt gesehen das direkt in der Fehlermeldung ganz genau steht was man machen muss um den Fehler zu beheben. Der Fehler ist dann auf einem anderen Gerät später noch mal aufgetreten und daher konnte ich eine Konversation mithören wie einer der Kollegen dem anderen stolz erklärt hat wie er davon ein Screenshot gemacht hat, diesen bei Gemini hochgeladen hat, und Gemini ihm dann die Lösung präsentiert hat. Alle ITler wohlgemerkt.

Das manche Menschen scheinbar wirklich jede noch so einfache Aufgabe LLMs überlassen kann ich einfach nicht verstehen.

@ennopark Mich stört bei Ki, dass man im Gegensatz zu googeln nur 1 Antwort erhält. Beim Gooeln kann ich auf der Ergebnisseite schon anlesen, ob verschiedene Aussagen existieren, außerdem sehe ich Quellen.

@ennopark
Ich benutze LLM grundsätzlich nicht als Suchmaschine oder um Fragen zu beantworten.

Wo sie aber echt eine Arbeitserleichterung sind, ist bei repetitiven Aufgaben wie die Grundstruktur (also das Gerüst, nicht den Text) einer Website zu erstellen.
Oder formale Dokumente wie die notwendigen Texte zur Erfüllung der DSGVO oder der GoBD zu erstellen.
Und auch beim programmieren von kleinen Versatzstücken durchaus hilfreich.
Das ist aber ein sehr begrenztes Einsatzfeld.