Unsloth Studio(Beta)는 오픈소스 노코드 로컬 웹 UI로, GGUF·safetensor 모델을 로컬에서 실행·학습·내보내기까지 한곳에서 지원합니다. 500+ 모델을 VRAM 70% 절감·2배 빠르게 학습(정확도 유지), 텍스트·비전·TTS·임베딩 지원. PDF/CSV/DOCX에서 자동으로 데이터셋 생성, 셀프히일링 도구호출·웹검색·코드 실행·자동 튜닝, 모델을 GGUF/safetensors로 내보내기 가능. 오프라인 우선 설계로 개인정보 보호, Windows/Mac/Linux/Docker/Colab에서 사용(베타).

https://unsloth.ai/docs/new/studio

#unsloth #localai #modeltraining #gguf #opensource

Introducing Unsloth Studio | Unsloth Documentation

Run and train AI models locally with Unsloth Studio.

Akshay (@akshay_pachaar)

Unsloth가 오픈소스 웹 UI를 출시하여 코드를 작성하지 않고 500개 이상의 LLM을 실행하고 파인튜닝할 수 있게 되었다고 발표했습니다. 주요 특징으로 로컬(맥/윈도우/리눅스) 실행 지원, 모델 학습 2배 속도 및 VRAM 70% 절감, GGUF 및 비전 모델 지원 등이 언급되어 파인튜닝 워크플로우를 크게 단순화합니다.

https://x.com/akshay_pachaar/status/2034253782444589498

#unsloth #finetuning #llm #opensource #gguf

Akshay 🚀 (@akshay_pachaar) on X

finetuning LLMs will never be the same! Unsloth just launched an open-source web UI to run and fine-tune 500+ LLMs without writing any code. key features - run models locally on Mac, Windows, Linux - train 500+ models 2x faster with 70% less VRAM - supports GGUF, vision,

X (formerly Twitter)

AISatoshi (@AiXsatoshi)

RakutenAI3.0-Q4.gguf를 실행해보니 Q4 버전임에도 불구하고 일본어 문헌을 학습한 흔적이 뚜렷합니다. 다만 환각(hallucination) 현상이 존재하고 코딩 용도로는 최근 모델들에 비해 성능이 떨어질 수 있습니다. 더 많은 계산 자원과 저노이즈 데이터 투입으로 개선 여지가 큽니다.

https://x.com/AiXsatoshi/status/2034089602177503313

#rakuten #llm #japanese #gguf #ai

ぱぷりか炒め (@WMjjRpISUEt2QZZ)

Rakuten이 공개한 'RakutenAI-3.0'의 gguf 포맷 변환판이 있다는 알림. imatrix로의 변환은 시간이 걸리므로 일단 생략했다는 내용으로, RakutenAI-3.0 모델의 gguf 배포 관련 소식임.

https://x.com/WMjjRpISUEt2QZZ/status/2033887117898879041

#rakutenai #gguf #model #llm #conversion

ぱぷりか炒め (@WMjjRpISUEt2QZZ) on X

Rakutenさんが公開しているRakutenAI-3.0のggufフォーマット変換版です imatrixは時間かかるため一旦skipします。 https://t.co/ygqukAn3N7

X (formerly Twitter)

金のニワトリ (@gosrum)

unsloth가 공개한 GGUF 파일(모델 포맷)이 올라와서 작성자가 현재 다운로드 중이라고 알림. 소형/비공식 모델 포맷 배포나 변환본 출시에 대한 짧은 공지로 보임.

https://x.com/gosrum/status/2033821384225525768

#gguf #model #download #unsloth

金のニワトリ (@gosrum) on X

unslothのGGUFが来てたのでダウンロード中... https://t.co/xbSua4spjG

X (formerly Twitter)
#openSUSE just released Cavil-Qwen3.5-4B; an #opensource AI model that automates #legal compliance checks for #software licenses and copyright notices. Runs on modest hardware thanks to #GGUF #quantization. #AI #Linux https://news.opensuse.org/2026/03/16/os-releases-updated-legal-classification-model/
openSUSE Releases Updated Legal Classification Model

The openSUSE Project has a new version of a language model designed to automate legal compliance checks for open-source software on the project’s HuggingFace...

openSUSE News

Install llama.cpp, run GGUF models with llama-cli, and serve OpenAI-compatible APIs using llama-server. Key flags, examples, and tuning tips with a short commands cheatsheet

#Cheatsheet #GGUF #AI #LLM #DevOps #OpenAI #API #SelfHosting #CUDA #Prometheus #llama.cpp

https://www.glukhov.org/llm-hosting/llama-cpp/

llama.cpp Quickstart with CLI and Server

Install llama.cpp, run GGUF models with llama-cli, and serve OpenAI-compatible APIs using llama-server. Key flags, examples, and tuning tips with a short commands cheatsheet

Rost Glukhov | Personal site and technical blog

Brie Wensleydale (@SlipperyGem)

Unsloth가 LTX 2.3 GGUF를 'UD(Unsloth Dynamic 2.0)'으로 업데이트했다고 공지했습니다. GGUF의 파일 크기와 속도 이점을 유지하면서 기존 GGUF에서 지적된 'smudgeiness' 즉 품질 저하를 줄였다고 설명하며 Hugging Face 리포지토리 링크를 제공하고 있어 모델 포맷/품질 개선 관련 주목할 만한 업데이트입니다.

https://x.com/SlipperyGem/status/2031387673487937820

#unsloth #gguf #ltx2.3 #huggingface #modeloptimization

Brie Wensleydale🧀🐭 (@SlipperyGem) on X

Unsloth's LTX 2.3 GGUFs got updated with his special 'UD' or 'Unsloth Dynamic 2.0'. Basically, you get GGUF size and speed but with less of that GGUF smudgeiness ... or something like that. Worth checking out, because previously, GGUFs were worst of 3. https://t.co/1c7WOOneC7

X (formerly Twitter)
第902回 FirefoxのAIチャットボットをローカルLLMで使用する | gihyo.jp

今回はFirefoxが持つAI機能の1つ、チャットボット、特にページの要約機能で使用するLLMをローカルLLMに変更する方法を紹介します。

gihyo.jp

Daniel T. Vela (@danieltvela)

mlx-community의 qwen3.5-35b-a3b가 M4 Pro(14c)에서 83.87 tok/sec로 매우 빠르게 동작하는 반면, 같은 프롬프트로 Qwen의 GGUF 버전은 LM Studio에서 35.45 tok/sec로 절반 수준의 성능을 보여 큰 차이가 발생함을 보고하며 원인(포맷·옵티마이제이션·런타임 등)을 묻고 있음.

https://x.com/danieltvela/status/2028123896600211792

#qwen #gguf #lmstudio #benchmark #m4pro

Daniel T. Vela (@danieltvela) on X

mlx-community/qwen3.5-35b-a3b runs at 83.87 tok/sec on my M4 Pro (14c). Impressive!!! But GGUF version by Qwen only runs at 35.45 tok/sec with the same prompt. Both using LM Studio. Anyone knows why? @alexocheema @Prince_Canuma @ivanfioravanti

X (formerly Twitter)