金のニワトリ (@gosrum)
공식 모델을 llama.cpp에서 gguf 포맷으로 양자화해 사용했더니 llama.cpp 상에서 모델 표기가 'deepseek2 ?B'로 표시되는 문제가 발생. 작성자는 이는 아마도 llama.cpp가 아직 해당 모델 표기를 완전히 지원하지 않아서일 것으로 추정하고 있습니다.
https://x.com/gosrum/status/2013416278879322355
#llama.cpp #gguf #quantization #deepseek2

金のニワトリ (@gosrum) on X
公式のモデルをllama.cppでggufで量子化したものを使用
llama.cpp上ではモデル表記がdeepseek2 ?Bと表示されてしまうが、おそらくllama.cpp側がまだ対応しきれていないと思われる
https://t.co/4kmNnQgNhz
X (formerly Twitter)For those who want to test some
#AI module on their
#PC and want to do it without complications, there is a
#GUI that makes things simple for you and allows you to use different types of AI.
Try
#LMStudio.
#qwen25 #mistral #phi #llama #gemma2 #deepseek2 #coding https://lmstudio.ai/
LM Studio - Local AI on your computer
Run local AI models like gpt-oss, Llama, Gemma, Qwen, and DeepSeek privately on your computer.
LM Studio