ichđ€iel
ichđ€iel
Tiere mit S:
Stirnlappenbasilisk.
Ich geb dir 50⏠wenn du den nicht nimmst.
Nö.
đŠ
Das sind 100 Mark. 200 Ostmark. 2000 Ostmark aufm Schwarzmarkt.
Von den bisherigen [email protected] hÀtte man 0.002675 % der DDR entschulden können.
Naja, wobei deine Art die Frage zu stellen, eben auch schon eine mögliche UnzulĂ€nglichkeiten der kĂŒnstlichen Intelligenz berĂŒcksichtigt, nĂ€mlich dass sie evtl. nur klein- oder nur groĂgeschriebene Hs zĂ€hlt.
Wenn man eben damit wirbt, dass das Ding intelligent sei und menschliche Sprache versteht, dann erwarten die Leute, dass sie mit dem Ding auch wie mit einem Menschen reden können. Und gegenĂŒber einem Menschen wĂŒrdest du nicht âungeachtet der GroĂ- und Kleinschreibungâ hinzufĂŒgenâŠ
Das ist tatsĂ€chlich keine UnzulĂ€nglichkeit einer KI, sondern in geschriebener Form ist diese Frage tatsĂ€chlich uneindeutig, weil es aus Sicht des Computer tatsĂ€chlich einen Unterschied zwischen âhâ und âHâ gibt. Und auch bei Programmiersprachen (also ohne KI) muss diese âFrageâ sorgfĂ€ltig gestellt werden, weil verschieden Handhabungen von Strings/Zeichenketten existieren.
In gesprochener Form, wĂŒrde man die Unterscheidung zwischen GroĂ- und Kleinbuchstaben nicht explizit erwĂ€hnen, da gebe ich dir Recht, als geschriebene Fragestellung sollte dies durchaus trotzdem der Fall sein.
Aber selbst ohne diese Spezifizierung, kann diese Frage âkorrektâ gelöst werden.
weil es aus Sicht des Computer tatsĂ€chlich einen Unterschied zwischen âhâ und âHâ gibt
Das Problem ist ja, dass einige Leute dem Computer (mindestens) menschliche Intelligenz zusprechen. Hat er schlichtweg nicht; selbst wenn er die Instruktionen âverstehtâ fehlt ihm der menschliche Erfahrungskontext um zu beurteilen ob Case Sensitive Matching hier Sinn macht.
Das wird dann tĂŒckisch, wenn Menschen nach Fakten fragen und der Computer einen faktenĂ€hnlichen Text generiert ohne zu wissen, auf welche Details es ankommt. Die beliebten Beispiele sind Quellenangaben und PrĂ€zedenzfall-Verweise die gar nicht existieren. Woher soll der Computer wissen, dass du FĂ€lle meinst, die wirklich existieren und relevant fĂŒr dein PlĂ€doyer sind? Woher soll er ĂŒberhaupt wissen, wie relevant die genau sind?
Uns ist vielleicht klar, dass man sowas zumindest prĂŒfen muss, aber wir sind auch nicht die Zielgruppe, die diesem Irrtum auf dem Leim gehen. Die Hype-Crowd hat es offensichtlich auch nicht sehr eilig, dieses Fehlerbild zu entzerren.
Da hilft es nicht, wenn wir als Programmierer sagen können âklar, hast die Frage ja nicht prĂ€zise gestelltâ; wenn der KI menschliche Intelligenz zugeschrieben wird mĂŒsste sie zumindest die Mehrdeutigkeit erkennen und nach Klarstellung fragen, oder einfach beide Antworten liefern.
Zufall ist beim Generieren von Sprache gut, weil die nicht exakt ist oder sein muss. Aber wenn er eine Frage faktisch richtig beantworten kann, macht es keinen Sinn, das zufÀllig mal falsch zu machen. Wenn ich Fehler will, mach ich sie selbst. Das ist nicht das geeignete Anwendungsgebiet, und darum geht es hier letztlich:
Frag LLMs nicht nach Fakten. Sie sind wunderbar im Texte schreiben, aber die Fakten musst du selbst liefern.
Ich gebe dir vollkommen Recht, auch wenn die Befragten alle Quellen des Internets zur VerfĂŒgung haben, werden manche selbstbewusst falsche Antworten geben.
Ich finde, das ist ein StĂŒck weit auch die Ironie der (möglicherweise provozierten) Antwort, dass das original Maimai auch nur deshalb existiert, weil Leute aus Dummheit oder SpaĂ falsche Antworten gegeben haben (und dafĂŒr sogar noch Geld fĂŒr die Anrufe gezahlt haben).
Auch ironisch ist, dass diejenigen, die sich selbst am Unsichersten sind am meisten darauf Vertrauen, dass die KI mit Sicherheit richtig liegt, ohne die Antwort gegenzuchecken (sich vielleicht Quellen geben zu lassen)
Genauso hier.
MĂŒsste es selber mal testen mit Perplexity