Diese Bude gießt das LLM direkt in Silizium. Und es ist schnell.

https://taalas.com/the-path-to-ubiquitous-ai/

https://chatjimmy.ai

@timo Puh! Sauschnell! Antwort auf komplexere Konzeptfrage aber eher so … naja … ist am Ende eben „nur“ ein Llama Model.

Die Idee ist stark und das Ergebnis an Speed beeindruckend. Aber wie soll das skalieren? Es müssten deutlich größere/potentere Modelle gegossen werden und das in Stückzahlen, die vermutlich noch nicht fertig produziert oder verkauft/eingebaut sind, bis die neuen Modellen erscheinen 🤔
Wobei für „einfache“ Text-Wrangler saugeil, die müssen nicht alle 2 Monate neu sein.