Run Llama 3.1 locally on your MacBook! 🦙

llama-server --chat-template llama3 --hf-repo reach-vb/Meta-Llama-3.1-8B-Instruct-Q6_K-GGUF \
--hf-file meta-llama-3.1-8b-instruct-q6_k.gguf \
--ctx-size 8192

#llama31 #locallama #llm

Gerade hyperparameter Tuning mit optuna entdeckt. Super Tool :)

Findet auch der Server, der jetzt die nächsten 5 Tage am Stück mein Modell tuned ✌️😅

Grüße gehen raus nach Mexico...

#ml #ai #codellama #locallama #thesis #hashtag #brum

Goethe it isn't. #llama2 #llm #locallama