Run Llama 3.1 locally on your MacBook! 🦙
llama-server --chat-template llama3 --hf-repo reach-vb/Meta-Llama-3.1-8B-Instruct-Q6_K-GGUF \
--hf-file meta-llama-3.1-8b-instruct-q6_k.gguf \
--ctx-size 8192
Run Llama 3.1 locally on your MacBook! 🦙
llama-server --chat-template llama3 --hf-repo reach-vb/Meta-Llama-3.1-8B-Instruct-Q6_K-GGUF \
--hf-file meta-llama-3.1-8b-instruct-q6_k.gguf \
--ctx-size 8192
Gerade hyperparameter Tuning mit optuna entdeckt. Super Tool :)
Findet auch der Server, der jetzt die nächsten 5 Tage am Stück mein Modell tuned ✌️😅
Grüße gehen raus nach Mexico...