Ivan Fioravanti ᯅ (@ivanfioravanti)
Qwen 3.5 소형 모델용 ParoQuant이 공개되었음을 알리는 게시물로, 작성자는 내일 직접 테스트해볼 계획이라고 밝힘. 소형 모델 대상 양자화/최적화 도구의 출시 소식으로 해석됨.
Ivan Fioravanti ᯅ (@ivanfioravanti)
Qwen 3.5 소형 모델용 ParoQuant이 공개되었음을 알리는 게시물로, 작성자는 내일 직접 테스트해볼 계획이라고 밝힘. 소형 모델 대상 양자화/최적화 도구의 출시 소식으로 해석됨.
AshutoshShrivastava (@ai_for_success)
Qwen이 3.5 소형 모델 시리즈를 출시했습니다. Qwen3.5-0.8B·Qwen3.5-2B는 초경량·고속으로 엣지 기기에 적합하고, Qwen3.5-4B는 경량 에이전트용 멀티모달 베이스, Qwen3.5-9B는 훨씬 큰 모델에 근접하는 성능을 제공한다고 발표되었습니다.
Qwen (@Alibaba_Qwen)
Qwen 3.5 소형 모델 시리즈가 발표되었습니다: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B, Qwen3.5-9B. 동일한 Qwen3.5 기반으로 네이티브 멀티모달 지원, 개선된 아키텍처와 확장된 RL을 적용해 연산은 줄이면서 지능은 향상시킨 경량 고속 모델군입니다.

🚀 Introducing the Qwen 3.5 Small Model Series Qwen3.5-0.8B · Qwen3.5-2B · Qwen3.5-4B · Qwen3.5-9B ✨ More intelligence, less compute. These small models are built on the same Qwen3.5 foundation — native multimodal, improved architecture, scaled RL: • 0.8B / 2B → tiny, fast,
Ivan Fioravanti ᯅ (@ivanfioravanti)
작고 경량화된 LLM들의 '메가 릴리스'를 알리는 흥분 섞인 트윗으로, 작은 모델들에서 높은 성능을 보인다는 내용입니다. 경량 LLM의 성능 향상과 실무 적용 가능성에 대한 주목을 시사합니다.
Ivan Fioravanti ᯅ (@ivanfioravanti)
파라미터 수가 30억(3B)에 불과한 모델이 어떻게 높은 품질에 도달할 수 있는지 놀라움을 표한 질문형 트윗으로, 소형 모델의 성능·효율성에 대한 관심과 의문을 제기합니다.
Abhishek Yadav (@abhishek__AI)
GLM-OCR이 매우 인상적이라는 평입니다. 파라미터 수가 0.9B에 불과함에도 문서 이해에서 SOTA 수준의 성능을 보이며 특히 표 처리, 정보 추출, 수식 인식에 강점을 보인다고 합니다. 경량·고속 문서 AI 모델의 유망 사례로 소개됩니다.
Big AI grabs headlines.
Small AI wins in production. ⚡🧠
Lower cost. Faster answers. Full control.
Read why 3B–8B models hit the sweet spot 👇
https://medium.com/@rogt.x1997/small-models-big-control-from-gpus-to-edge-devices-the-3b-8b-model-sweet-spot-ea6147caab7e
#EdgeAI #SmallModels #AIEngineering
https://medium.com/@rogt.x1997/small-models-big-control-from-gpus-to-edge-devices-the-3b-8b-model-sweet-spot-ea6147caab7e
Rohan Paul (@rohanpaul_ai)
연구 논문은 소형 모델과 행동 추적기(behavior tracker)를 결합하면 검색 제안 기능을 완전히 브라우저 내에서 실행할 수 있음을 시연합니다. 실제 사용자 행동으로 기반을 잡으면 온디바이스 소형 모델로도 검색 보조가 충분하다고 주장하며, 대부분의 검색 에이전트가 쿼리·클릭·브라우징 기록을 전송하는 관행을 지적합니다.

This paper shows search suggestions can run fully in-browser by pairing a small model with a behavior tracker. Argues that smaller on-device models are enough for search help when they are grounded in real behavior. Most search agents send queries, clicks, and browsing history
Mô hình 15M tham số đạt 24% độ chính xác trên ARC-AGI-2 (Hard Eval), vượt xa SOTA trước đó (8%). TOPAS-DSPL của Bitterbot AI sử dụng kiến trúc "Bicameral" tách luồng Logic và Canvas để giảm lỗi drift, kèm Test-Time Training. Chạy được trên GPU consumer như RTX 4090. Mã nguồn đã được mở. #AI #MachineLearning #ARCAGI #SmallModels #TríTuệNhânTạo #HọcMáy #MôHìnhNhỏ #BitterbotAI