Übrigens: Wegen dieser Software können wir keinen RAM und Grafikkarten mehr kaufen...
@1337core wobei ich mich frage, warum können LLMs das eigentlich so schlecht?
Liegt das nur daran, dass diese LLMs keine ALUs benutzen und es keine Webseite gibt, die Tabellen mit Anzahl an Buchstaben zu Worten haben, das in den Trainingsdaten fehlte?
Ansonsten stimme ich aber voll zu, dass es ein Unding ist, dass jetzt Techgiganten Rechen- und Speicherleistung horten.
@T_X LLMs können nur Text. Um eine Frage zu verstehen braucht müsste man denken können und keine statistischen Sätze bilden.
@1337core wie auch immer man "denken" dann genau definiert :-). Vll. liegt es daran, dass man eigentlich ein turingvollständiges Programm ausführen müsste, mit loops + Zwischenspeicher?
Könnte mir auch vorstellen, dass dieses Beispiel noch mit einem LLM gelößt werden könnte. Dass man alles, für das man noch eine look-up table benutzen könnte, damit gut ein neuronales Netz trainieren könnte. Aber sobald das zu groß wird und man Programme ausführen müsste, es dann mit einem LLM nicht mehr geht?
@1337core also quasi der Unterschied zu man kann im Kopf das 1x1 selber mühsam ausrechnen. Oder man hat das 1x1 auswendig gelernt. Ersteres kann ein stochastisches LLM nicht, zweiteres aber vll. schon?