GLM-OCR runs locally on 2GB VRAM, handles tables and math equations, and hits 260 tok/s on a Mac.
No cloud API. No subscription. Just your machine.
Local models are getting better and smaller faster than anyone expected.
GLM-OCR runs locally on 2GB VRAM, handles tables and math equations, and hits 260 tok/s on a Mac.
No cloud API. No subscription. Just your machine.
Local models are getting better and smaller faster than anyone expected.
Venelin Valkov (@venelin_valkov)
GLM-OCR이라는 오픈 OCR 모델이 SOTA 성능을 주장한다는 소식. 해당 모델은 Zai_org에서 만든 9B 규모 모델이며 문서, 표, 코드 등 처리를 위한 두 단계 파이프라인 구조를 갖췄다고 합니다. 작성자는 실제 문서로 테스트한 결과를 영상으로 공유했습니다.

GLM-OCR claims SOTA performance among open OCR models. It’s a 9B model from @Zai_org, built as a two-stage pipeline for documents, tables, code, and more. Big claim. So I put it to the test on real documents. Results in the video 👇 https://t.co/mikBeYg8g2
Zixuan Li (@ZixuanLi_)
GLM-OCR의 예상 밖 랭킹 소식에 대한 언급입니다. 작성자는 사용해본 사람들에게 칭찬이나 비평 형태로 피드백을 요청하며 모델을 지속 개선하겠다고 밝혔습니다. (모델 성능·평가 관련 공지)
Genstore rolls out AI agents tailored for solo sellers, letting them automate listings, pricing and support. Meanwhile, GLM‑OCR pushes document understanding forward, rivaling OpenAI’s offerings and integrating with Qwen3‑Coder. Curious how agentic AI is reshaping e‑commerce and data processing? Dive in for the full breakdown. #GenstoreAI #SoloSellerTools #GLMOCR #AgenticAI
🔗 https://aidailypost.com/news/genstore-ai-agents-support-solo-sellers-glm-ocr-advances-document
Abhishek Yadav (@abhishek__AI)
GLM-OCR은 약 0.9B(9억) 파라미터의 경량 모델임에도 불구하고 문서 이해에서 SOTA 수준의 성능을 보인다고 평가됩니다. 특히 표 처리에 강하고 정보 추출이 깔끔하며 수식 인식도 견고해 문서 OCR 및 구조화된 정보 추출용으로 '빠르고 효율적인' 솔루션으로 소개되고 있습니다.
cedric (@cedric_chee)
GLM-OCR이 Gemini 3 Flash Thinking(중간 모드)과 비교해 더 빠르다고 주장하며 구체적 벤치마크를 제시합니다. 예시로 scribble→doctor notes 13.5s, tables→water damage paper 40.8s(마크다운 변환 시 약 20s) 등을 들며 GLM-OCR의 우수한 속도를 강조합니다.
cedric (@cedric_chee)
GLM-OCR은 실제 환경(real-world)과 높은 처리량(high throughput)을 염두에 두고 최적화된 OCR 솔루션(모델)로 소개되며, 현재 테스트 중이라는 공지입니다. 높은 처리량과 실무 적용 가능성을 강조한 OCR 신제품/도구 발표 성격의 트윗입니다.
Novita AI (@novita_labs)
GLM-OCR을 Zai에서 발표하고 Novita 플랫폼에 손쉽게 배포할 수 있다고 안내합니다. 0.9B 파라미터의 멀티모달 OCR로 실무용 대규모 OCR에 적합하며 OmniDocBench V1.5에서 1위(94.62)를 기록했다고 소개합니다. 표, 수식, 코드, 인감, 복잡 레이아웃 처리가 강점이라고 명시합니다.

⚡ Deploy GLM-OCR from @Zai_org on Novita with ease! GLM-OCR is a state‑of‑the‑art multimodal OCR model for real‑world business OCR at scale. Key Features: ✨ #1 on OmniDocBench V1.5 (94.62) ✨ Excels at tables, formulas, code, seals & complex layouts ✨ 0.9B params for
Z.ai (@Zai_org)
GLM-OCR이라는 문서 이해 특화 모델이 공개되었습니다. 약 0.9B 파라미터로 설계되어 수식 인식, 표 인식, 정보 추출 등 복잡한 문서 이해 벤치마크에서 SOTA 성능을 달성했다고 보고하고 있습니다. 경량 모델로 실무 문서 처리에 최적화된 점을 강조합니다.

Introducing GLM-OCR: SOTA performance, optimized for complex document understanding. With only 0.9B parameters, GLM-OCR delivers state-of-the-art results across major document understanding benchmarks, including formula recognition, table recognition, and information extraction.
Abhishek Yadav (@abhishek__AI)
Hugging Face에 GLM-OCR 가중치가 공개되었다는 안내와 함께 데모(ocr.z.ai) 및 API 문서 링크가 제공됨. VLM 방식의 GLM-OCR 모델을 실험·적용할 수 있도록 weights, 데모, 개발자 가이드가 정리되어 있는 릴리스 안내성 트윗.