KI macht das Leben leichter – und das Denken seltener. Ein kritischer Blick auf die schleichende Entwöhnung vom eigenen Verstand. 👇

https://www.kuketz-blog.de/ki-laesst-uns-menschen-das-denken-verlernen-und-wir-halten-es-fuer-fortschritt/

#KI #AI #denken #menschen #fedilz

KI lässt uns Menschen das Denken verlernen – und wir halten es für Fortschritt

Wie KI unser Denken verändert – und warum wir drohen, es zu verlernen. Eine Analyse über Kulturwandel, Bildung und Bequemlichkeit.

Wer KI mit einer Google-Suche gleichsetzt, verkennt die Tragweite. Die Google-Suche zeigt dir Links. Du musst auswählen, filtern, lesen, vergleichen, bewerten. Sie vermittelt Wissen – sie denkt nicht für dich. Eine KI wie ChatGPT oder Gemini hingegen formuliert das Ergebnis gleich mit. Sie ersetzt das Nachdenken über Quellen durch eine glatte, fertige Antwort. Du bekommst das Resultat – nicht den Weg dorthin. Der kognitive Prozess wird damit nicht nur unterstützt, sondern umgangen.
@kuketzblog Google bewertet die Links ja auch, Reihenfolge und so weiter. Plus noch dazu Werbung. Das gibt es bei KI (noch?) nicht.

@johleut

Ich würde sagen:
Eine "KI" liefert zwar eine "eine glatte, fertige Antwort", aber auch eine KI "denkt nicht für dich" (weil sie das nämlich gar nicht tun KANN). ...

Es ist lediglich das (gelogene) Werbeversprechen, und auch die allgemeine öffentliche Wahrnehmung (vor allem in Politik und Medien).
Daher teile ich die Schlussfolgerung von @kuketzblog auch vollständig.

Unser Job wird es sein, diese prinzipielle "Denkunfähigkeit" von "KI" (ja, und natürlich auch "Google" & Co.) zur allgemeinen Wissensbasis zu machen.
Immerhin gibt es auf #InfSchule jetzt auch eine schöne Lernstrecke dazu:

https://inf-schule.de/ki/menueansicht/ki_erkunden/papagei/lernstrecke

inf-schule | Die Funktionsweise KI-basierter Texterzeugung » Ist ein KI-Textgenerator ein plappernder Papagei?

@chbmeyer @johleut @kuketzblog Wobei ich persönlich perplexity in deep search mode mittlerweile ganz gerne als Suchmaschinen Ersatz verwende: Es liefert die "Quellen" (aka Links), und eine Zusammenfassung, die in > 90 % der Fälle sogar plausibel ist.

(Und ich sehe die doofen LLM in diesem Kontext einfach als geniale "Natural Text processing algorithms", wer mal klassische NLP gemacht hat, weiß zu schätzen, und das liefert bei weitem auch nicht immer richtige Resultate)

Aufpassen muss man halt, dass wirklich alles was in der Zusammenfassung steht, auch wirklich durch die Quellen belegt ist. Perplexity in Deep Search mode kann durch den iterativen Ansatz nämlich sehr wohl zu offensichtlichen Schlussfolgerungen kommen, wie "a" ist ein Beispiel für Klasse "A", selbst wenn es in den Quellen nur sehr indirekt erwähnt wird.

Ich gestehe ich habe mir es noch nicht angeschaut im Detail wie Perplexity Deep Search implementiert (aber es ist klarerweise nicht einfach ein LLM, sondern ein Algorithmus der auch LLM verwendet).

Und da ich es noch nicht weiß, wie gesagt, verwende ich das Ding momentan als Suchassistenten, das macht er überraschend gut.

Selbst wenn es manchmal auffällt, dass er nicht rechnen kann, oder das Ding sich am Wahlabend im Wahlergebnis vergreift. (Da hilft es wenn man weiß das die FDP rausgeflogen ist, wenn der Blechtrottel dann mögliche Koa mit FDP auflistet, dann stimmt was nicht.) 🤷