#ChatGPT ist nicht in der Lage die Anzahl der Buchstaben eines Worts zu zählen.
Und dann lügt sie auch noch.
Peter Yang on Twitter

“Our jobs are safe, fam.”

Twitter
Auch eine witzige Berechnung.
@doener 😂 WTF habe ich da gerade gelesen?

@doener

Will die "Künstliche Intelligenz" nun schon menschlich wirken, um uns in Sicherheit zu wiegen?

@doener danke, ein schöner Abschluß des Tages.
@doener wie war die genaue Frage?

@doener ChatGPT arbeitet nämlich nativ in Englisch. Nur die Resultate werden übersetzt um den Anschein zu erwecken, die Arbeits- und Rechenschritte werden aber immer in Englisch ausgeführt.

Frag einfach mal „was reimt sich auf Apfel“ auf deutsch. Die Antwort ergibt keinen Sinn auf deutsch, auf Englisch aber durchaus.

/Update: ChatGPT kann jetzt auch zumindest begrenzt deutsch Reimen, das ging letzte Woche noch nicht

@doener @bensen Nah, Das problem ist der tokenization, Es muss dad Antwort für jedes Wort gespeichert haben. Wenn man es erfragt nur am Ende das total zu erzählen, wirkt es viel besser.
@doener ich merke gerade, dass sich das seit letzter Woche verbessert hat. ChatGPT spuckt jetzt tatsächlich deutsche Reime aus, und auch einen Reim zu "Apfel"
@doener ach, ChatGPT kann Wörter, die sich auf "Apfel" reimen, aber bei einem Reim über "Apfel" wirds inkonsistent. Bittet man dann um die englische Version, reimt es sich.
@bensen @doener also das hier ergibt eigentlich überhaupt keinen Sinn.
@hllizi @doener genau, ausschließlich solche Ergebnisse hatte ich erst letzte Woche. Ich hab noch nicht verstanden warum neuerdings manchmal solche alte und manchmal "neuere" Ergebnisse ausgespuckt werden

@bensen

😂😂😂 "erschrocken erschüttert" gefällt mir am besten...

@hllizi @doener