金のニワトリ (@gosrum)

공식 모델을 llama.cpp에서 gguf 포맷으로 양자화해 사용했더니 llama.cpp 상에서 모델 표기가 'deepseek2 ?B'로 표시되는 문제가 발생. 작성자는 이는 아마도 llama.cpp가 아직 해당 모델 표기를 완전히 지원하지 않아서일 것으로 추정하고 있습니다.

https://x.com/gosrum/status/2013416278879322355

#llama.cpp #gguf #quantization #deepseek2

金のニワトリ (@gosrum) on X

公式のモデルをllama.cppでggufで量子化したものを使用 llama.cpp上ではモデル表記がdeepseek2 ?Bと表示されてしまうが、おそらくllama.cpp側がまだ対応しきれていないと思われる https://t.co/4kmNnQgNhz

X (formerly Twitter)
For those who want to test some #AI module on their #PC and want to do it without complications, there is a #GUI that makes things simple for you and allows you to use different types of AI.
Try #LMStudio. #qwen25 #mistral #phi #llama #gemma2 #deepseek2 #coding
https://lmstudio.ai/
LM Studio - Local AI on your computer

Run local AI models like gpt-oss, Llama, Gemma, Qwen, and DeepSeek privately on your computer.

LM Studio