Ivan Fioravanti ᯅ (@ivanfioravanti)

Qwen 3.5 소형 모델용 ParoQuant이 공개되었음을 알리는 게시물로, 작성자는 내일 직접 테스트해볼 계획이라고 밝힘. 소형 모델 대상 양자화/최적화 도구의 출시 소식으로 해석됨.

https://x.com/ivanfioravanti/status/2030742713478287375

#paroquant #qwen3.5 #quantization #smallmodels

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

ParoQuant for Qwen 3.5 small models available! Can’t wait to try these tomorrow!

X (formerly Twitter)

AshutoshShrivastava (@ai_for_success)

Qwen이 3.5 소형 모델 시리즈를 출시했습니다. Qwen3.5-0.8B·Qwen3.5-2B는 초경량·고속으로 엣지 기기에 적합하고, Qwen3.5-4B는 경량 에이전트용 멀티모달 베이스, Qwen3.5-9B는 훨씬 큰 모델에 근접하는 성능을 제공한다고 발표되었습니다.

https://x.com/ai_for_success/status/2028462551433113738

#qwen #smallmodels #edgeai #multimodal #llm

AshutoshShrivastava (@ai_for_success) on X

🚨 Qwen launched the 3.5 Small Model Series - Qwen3.5-0.8B & Qwen3.5-2B: tiny, fast, great for edge devices - Qwen3.5-4B: multimodal base for lightweight agents - Qwen3.5-9B: performance closer to much larger models

X (formerly Twitter)

Qwen (@Alibaba_Qwen)

Qwen 3.5 소형 모델 시리즈가 발표되었습니다: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B, Qwen3.5-9B. 동일한 Qwen3.5 기반으로 네이티브 멀티모달 지원, 개선된 아키텍처와 확장된 RL을 적용해 연산은 줄이면서 지능은 향상시킨 경량 고속 모델군입니다.

https://x.com/Alibaba_Qwen/status/2028460046510965160

#qwen #llm #smallmodels #multimodal #qwen3.5

Qwen (@Alibaba_Qwen) on X

🚀 Introducing the Qwen 3.5 Small Model Series Qwen3.5-0.8B · Qwen3.5-2B · Qwen3.5-4B · Qwen3.5-9B ✨ More intelligence, less compute. These small models are built on the same Qwen3.5 foundation — native multimodal, improved architecture, scaled RL: • 0.8B / 2B → tiny, fast,

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

작고 경량화된 LLM들의 '메가 릴리스'를 알리는 흥분 섞인 트윗으로, 작은 모델들에서 높은 성능을 보인다는 내용입니다. 경량 LLM의 성능 향상과 실무 적용 가능성에 대한 주목을 시사합니다.

https://x.com/ivanfioravanti/status/2028475471222939800

#llm #modelrelease #smallmodels #ai #nlp

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

Mega release! So much power in such small LLMs!

X (formerly Twitter)

Ivan Fioravanti ᯅ (@ivanfioravanti)

파라미터 수가 30억(3B)에 불과한 모델이 어떻게 높은 품질에 도달할 수 있는지 놀라움을 표한 질문형 트윗으로, 소형 모델의 성능·효율성에 대한 관심과 의문을 제기합니다.

https://x.com/ivanfioravanti/status/2021648512380022861

#smallmodels #modelcompression #efficiency #ml

Ivan Fioravanti ᯅ (@ivanfioravanti) on X

How can a 3B parameters model reach this quality? 👀

X (formerly Twitter)

Abhishek Yadav (@abhishek__AI)

GLM-OCR이 매우 인상적이라는 평입니다. 파라미터 수가 0.9B에 불과함에도 문서 이해에서 SOTA 수준의 성능을 보이며 특히 표 처리, 정보 추출, 수식 인식에 강점을 보인다고 합니다. 경량·고속 문서 AI 모델의 유망 사례로 소개됩니다.

https://x.com/abhishek__AI/status/2018573637515915490

#glmocr #ocr #documentunderstanding #sota #smallmodels

Abhishek Yadav (@abhishek__AI) on X

GLM-OCR is quietly impressive 👀 A SOTA level document understnding with just 0.9B params. - Strong on tables - Clean info extraction - Solid formula recognition Lean, fast, and very capable.

X (formerly Twitter)
Small Models, Big Control: From GPUs to Edge Devices…The 3B–8B Model Sweet Spot

What Enterprise Benchmarks Are Quietly Showing…

Medium

Rohan Paul (@rohanpaul_ai)

연구 논문은 소형 모델과 행동 추적기(behavior tracker)를 결합하면 검색 제안 기능을 완전히 브라우저 내에서 실행할 수 있음을 시연합니다. 실제 사용자 행동으로 기반을 잡으면 온디바이스 소형 모델로도 검색 보조가 충분하다고 주장하며, 대부분의 검색 에이전트가 쿼리·클릭·브라우징 기록을 전송하는 관행을 지적합니다.

https://x.com/rohanpaul_ai/status/2013795558197174440

#ondevice #browserai #smallmodels #search

Rohan Paul (@rohanpaul_ai) on X

This paper shows search suggestions can run fully in-browser by pairing a small model with a behavior tracker. Argues that smaller on-device models are enough for search help when they are grounded in real behavior. Most search agents send queries, clicks, and browsing history

X (formerly Twitter)
TII launches Falcon-H1R, a 7B reasoning model that rivals systems 7x its size, optimized for speed and memory on modest hardware.
#AI #SmallModels #EdgeComputing

Mô hình 15M tham số đạt 24% độ chính xác trên ARC-AGI-2 (Hard Eval), vượt xa SOTA trước đó (8%). TOPAS-DSPL của Bitterbot AI sử dụng kiến trúc "Bicameral" tách luồng Logic và Canvas để giảm lỗi drift, kèm Test-Time Training. Chạy được trên GPU consumer như RTX 4090. Mã nguồn đã được mở. #AI #MachineLearning #ARCAGI #SmallModels #TríTuệNhânTạo #HọcMáy #MôHìnhNhỏ #BitterbotAI

https://www.reddit.com/r/LocalLLaMA/comments/1pzsqii/15m_param_model_solving_24_of_arcagi2_hard_eval/