Tiere mit S:

Stirnlappenbasilisk.

Ich geb dir 50€ wenn du den nicht nimmst.

Nö.

😩

m.youtube.com/watch?v=xShGfhYaUC0

9LIVE - DER STIRNLAPPENBASILISK - CITV.NL

YouTube

Das sind 100 Mark. 200 Ostmark. 2000 Ostmark aufm Schwarzmarkt.

Von den bisherigen [email protected] hĂ€tte man 0.002675 % der DDR entschulden können.

Naja, wobei deine Art die Frage zu stellen, eben auch schon eine mögliche UnzulĂ€nglichkeiten der kĂŒnstlichen Intelligenz berĂŒcksichtigt, nĂ€mlich dass sie evtl. nur klein- oder nur großgeschriebene Hs zĂ€hlt.

Wenn man eben damit wirbt, dass das Ding intelligent sei und menschliche Sprache versteht, dann erwarten die Leute, dass sie mit dem Ding auch wie mit einem Menschen reden können. Und gegenĂŒber einem Menschen wĂŒrdest du nicht “ungeachtet der Groß- und Kleinschreibung” hinzufĂŒgen


Das ist tatsĂ€chlich keine UnzulĂ€nglichkeit einer KI, sondern in geschriebener Form ist diese Frage tatsĂ€chlich uneindeutig, weil es aus Sicht des Computer tatsĂ€chlich einen Unterschied zwischen “h” und “H” gibt. Und auch bei Programmiersprachen (also ohne KI) muss diese “Frage” sorgfĂ€ltig gestellt werden, weil verschieden Handhabungen von Strings/Zeichenketten existieren.

In gesprochener Form, wĂŒrde man die Unterscheidung zwischen Groß- und Kleinbuchstaben nicht explizit erwĂ€hnen, da gebe ich dir Recht, als geschriebene Fragestellung sollte dies durchaus trotzdem der Fall sein.

Aber selbst ohne diese Spezifizierung, kann diese Frage “korrekt” gelöst werden.

weil es aus Sicht des Computer tatsĂ€chlich einen Unterschied zwischen “h” und “H” gibt

Das Problem ist ja, dass einige Leute dem Computer (mindestens) menschliche Intelligenz zusprechen. Hat er schlichtweg nicht; selbst wenn er die Instruktionen “versteht” fehlt ihm der menschliche Erfahrungskontext um zu beurteilen ob Case Sensitive Matching hier Sinn macht.

Das wird dann tĂŒckisch, wenn Menschen nach Fakten fragen und der Computer einen faktenĂ€hnlichen Text generiert ohne zu wissen, auf welche Details es ankommt. Die beliebten Beispiele sind Quellenangaben und PrĂ€zedenzfall-Verweise die gar nicht existieren. Woher soll der Computer wissen, dass du FĂ€lle meinst, die wirklich existieren und relevant fĂŒr dein PlĂ€doyer sind? Woher soll er ĂŒberhaupt wissen, wie relevant die genau sind?

Uns ist vielleicht klar, dass man sowas zumindest prĂŒfen muss, aber wir sind auch nicht die Zielgruppe, die diesem Irrtum auf dem Leim gehen. Die Hype-Crowd hat es offensichtlich auch nicht sehr eilig, dieses Fehlerbild zu entzerren.

Da hilft es nicht, wenn wir als Programmierer sagen können “klar, hast die Frage ja nicht prĂ€zise gestellt”; wenn der KI menschliche Intelligenz zugeschrieben wird mĂŒsste sie zumindest die Mehrdeutigkeit erkennen und nach Klarstellung fragen, oder einfach beide Antworten liefern.

Zufall ist beim Generieren von Sprache gut, weil die nicht exakt ist oder sein muss. Aber wenn er eine Frage faktisch richtig beantworten kann, macht es keinen Sinn, das zufÀllig mal falsch zu machen. Wenn ich Fehler will, mach ich sie selbst. Das ist nicht das geeignete Anwendungsgebiet, und darum geht es hier letztlich:

Frag LLMs nicht nach Fakten. Sie sind wunderbar im Texte schreiben, aber die Fakten musst du selbst liefern.

Wahr ich bin leider auch nicht der, der die Eingabe getĂ€tigt hat. Aber nach eigener Erfahrung liefert GPT gerne je nach GemĂŒtslage die richtige oder richtig falsche Antwort :')
Da hast du Recht, das GPT gerne mal falsche Antworten liefert. Das liegt aber auch durchaus an der ZufĂ€lligkeit, die intern in diesen Modellen verbaut ist. Zudem machen Menschen auch Fehler (“Irren ist menschlich.”) Un jetzt tatsĂ€chlich zu entscheiden, wie gut eine “KI” ist mĂŒsste man GPT 1000 mal diese gleiche Frage stellen, aber auch 1000 zufĂ€lligen Passanten in. Der FußgĂ€ngerzone. Weil da wird dir auch der ein oder andere “1” antworten auf die Frage nach der Anzahl der “h”'s in “Habicht”.

Ich gebe dir vollkommen Recht, auch wenn die Befragten alle Quellen des Internets zur VerfĂŒgung haben, werden manche selbstbewusst falsche Antworten geben.

Ich finde, das ist ein StĂŒck weit auch die Ironie der (möglicherweise provozierten) Antwort, dass das original Maimai auch nur deshalb existiert, weil Leute aus Dummheit oder Spaß falsche Antworten gegeben haben (und dafĂŒr sogar noch Geld fĂŒr die Anrufe gezahlt haben).

Auch ironisch ist, dass diejenigen, die sich selbst am Unsichersten sind am meisten darauf Vertrauen, dass die KI mit Sicherheit richtig liegt, ohne die Antwort gegenzuchecken (sich vielleicht Quellen geben zu lassen)

Was bringen denn die Quellen? Die mĂŒssten sie ja erst mal lesen und verstehen um zu wissen, ob die KI richtig liegt. Oder ob die Quellen ĂŒberhaupt existieren und die KI die Angabe nicht genauso erfunden hat.
Ahja der Holzpecker
Ist doch richtig. Nach “h” hast du ja nicht gefragt.
Siehe diesen Kommentar: Àhnliches Ergebnis, hat aber nach h gefragt
ichđŸ€–iel - feddit.org

[https://lemmy.zip/api/v3/image_proxy?url=https%3A%2F%2Fmedia1.tenor.com%2Fm%2FWolyol5zMwUAAAAd%2F9live-habicht.gif]

HABICHT! HABICHT!!! ICH BIN SCHON GENAUSO BLÖD!! 111!
DIE KUH!!! WIE VIEL KUHS HAT DAS H!? WIE VIEL KUHS HAT DAS H!!?

MĂŒsste es selber mal testen mit Perplexity

Hat sich bei hummehl und huhmmer vertippt
“Meer-Schwein-chen. Wie viele 'h’s hat Meerschweinchen!!?”
“HĂ€ufig diskutiert”
Wenn die Frage nach Lauten war, ist die Antwort korrekt.