GLM-OCR runs locally on 2GB VRAM, handles tables and math equations, and hits 260 tok/s on a Mac.

No cloud API. No subscription. Just your machine.

Local models are getting better and smaller faster than anyone expected.

https://x.com/RoundtableSpace/status/2033547584208580991

#glmocr #ocr #localai #ondevice #smallmodels

0xMarioNawfal (@RoundtableSpace) on X

GLM-OCR runs locally on 2GB VRAM, handles tables and math equations, and hits 260 tok/s on a Mac. No cloud API. No subscription. Just your machine. Local models are getting better and smaller faster than anyone expected.

X (formerly Twitter)

Venelin Valkov (@venelin_valkov)

GLM-OCR이라는 오픈 OCR 모델이 SOTA 성능을 주장한다는 소식. 해당 모델은 Zai_org에서 만든 9B 규모 모델이며 문서, 표, 코드 등 처리를 위한 두 단계 파이프라인 구조를 갖췄다고 합니다. 작성자는 실제 문서로 테스트한 결과를 영상으로 공유했습니다.

https://x.com/venelin_valkov/status/2020955907388268676

#glmocr #ocr #zai #opensource

Venelin Valkov (@venelin_valkov) on X

GLM-OCR claims SOTA performance among open OCR models. It’s a 9B model from @Zai_org, built as a two-stage pipeline for documents, tables, code, and more. Big claim. So I put it to the test on real documents. Results in the video 👇 https://t.co/mikBeYg8g2

X (formerly Twitter)

Zixuan Li (@ZixuanLi_)

GLM-OCR의 예상 밖 랭킹 소식에 대한 언급입니다. 작성자는 사용해본 사람들에게 칭찬이나 비평 형태로 피드백을 요청하며 모델을 지속 개선하겠다고 밝혔습니다. (모델 성능·평가 관련 공지)

https://x.com/ZixuanLi_/status/2019647022610174322

#glmocr #ocr #model #evaluation

Zixuan Li (@ZixuanLi_) on X

What an unexpected ranking for GLM-OCR. If you’ve tried it, drop feedback in the replies, praise or critique. We’ll keep improving.

X (formerly Twitter)

Genstore rolls out AI agents tailored for solo sellers, letting them automate listings, pricing and support. Meanwhile, GLM‑OCR pushes document understanding forward, rivaling OpenAI’s offerings and integrating with Qwen3‑Coder. Curious how agentic AI is reshaping e‑commerce and data processing? Dive in for the full breakdown. #GenstoreAI #SoloSellerTools #GLMOCR #AgenticAI

🔗 https://aidailypost.com/news/genstore-ai-agents-support-solo-sellers-glm-ocr-advances-document

Abhishek Yadav (@abhishek__AI)

GLM-OCR은 약 0.9B(9억) 파라미터의 경량 모델임에도 불구하고 문서 이해에서 SOTA 수준의 성능을 보인다고 평가됩니다. 특히 표 처리에 강하고 정보 추출이 깔끔하며 수식 인식도 견고해 문서 OCR 및 구조화된 정보 추출용으로 '빠르고 효율적인' 솔루션으로 소개되고 있습니다.

https://x.com/abhishek__AI/status/2018764025778286970

#glmocr #ocr #documentunderstanding #nlp #computervision

Abhishek Yadav (@abhishek__AI) on X

GLM-OCR is quietly impressive 👀 A SOTA level document understnding with just 0.9B params. - Strong on tables - Clean info extraction - Solid formula recognition Lean, fast, and very capable.

X (formerly Twitter)

cedric (@cedric_chee)

GLM-OCR이 Gemini 3 Flash Thinking(중간 모드)과 비교해 더 빠르다고 주장하며 구체적 벤치마크를 제시합니다. 예시로 scribble→doctor notes 13.5s, tables→water damage paper 40.8s(마크다운 변환 시 약 20s) 등을 들며 GLM-OCR의 우수한 속도를 강조합니다.

https://x.com/cedric_chee/status/2018620579583255005

#glmocr #benchmark #gemini #ocr

cedric (@cedric_chee) on X

How GLM-OCR compares to Gemini 3 Flash Thinking (medium) ✅ scribble – doctor notes (13.5s) ✅ tables - water damage paper (40.8s / ~20s if converting to Markdown) GLM-OCR is faster

X (formerly Twitter)

cedric (@cedric_chee)

GLM-OCR은 실제 환경(real-world)과 높은 처리량(high throughput)을 염두에 두고 최적화된 OCR 솔루션(모델)로 소개되며, 현재 테스트 중이라는 공지입니다. 높은 처리량과 실무 적용 가능성을 강조한 OCR 신제품/도구 발표 성격의 트윗입니다.

https://x.com/cedric_chee/status/2018525327346270539

#glmocr #ocr #computervision #ai

cedric (@cedric_chee) on X

GLM-OCR is optimized for real-world scenarios & high throughput. Testing time!

X (formerly Twitter)

Novita AI (@novita_labs)

GLM-OCR을 Zai에서 발표하고 Novita 플랫폼에 손쉽게 배포할 수 있다고 안내합니다. 0.9B 파라미터의 멀티모달 OCR로 실무용 대규모 OCR에 적합하며 OmniDocBench V1.5에서 1위(94.62)를 기록했다고 소개합니다. 표, 수식, 코드, 인감, 복잡 레이아웃 처리가 강점이라고 명시합니다.

https://x.com/novita_labs/status/2018565896013574225

#glmocr #zai #novita #omnidocbench #ocr

Novita AI (@novita_labs) on X

⚡ Deploy GLM-OCR from @Zai_org on Novita with ease! GLM-OCR is a state‑of‑the‑art multimodal OCR model for real‑world business OCR at scale. Key Features: ✨ #1 on OmniDocBench V1.5 (94.62) ✨ Excels at tables, formulas, code, seals & complex layouts ✨ 0.9B params for

X (formerly Twitter)

Z.ai (@Zai_org)

GLM-OCR이라는 문서 이해 특화 모델이 공개되었습니다. 약 0.9B 파라미터로 설계되어 수식 인식, 표 인식, 정보 추출 등 복잡한 문서 이해 벤치마크에서 SOTA 성능을 달성했다고 보고하고 있습니다. 경량 모델로 실무 문서 처리에 최적화된 점을 강조합니다.

https://x.com/Zai_org/status/2018520052941656385

#glmocr #ocr #documentunderstanding #multimodal

Z.ai (@Zai_org) on X

Introducing GLM-OCR: SOTA performance, optimized for complex document understanding. With only 0.9B parameters, GLM-OCR delivers state-of-the-art results across major document understanding benchmarks, including formula recognition, table recognition, and information extraction.

X (formerly Twitter)

Abhishek Yadav (@abhishek__AI)

Hugging Face에 GLM-OCR 가중치가 공개되었다는 안내와 함께 데모(ocr.z.ai) 및 API 문서 링크가 제공됨. VLM 방식의 GLM-OCR 모델을 실험·적용할 수 있도록 weights, 데모, 개발자 가이드가 정리되어 있는 릴리스 안내성 트윗.

https://x.com/abhishek__AI/status/2018573644419719383

#huggingface #glmocr #ocr #zai

Abhishek Yadav (@abhishek__AI) on X

Weights: https://t.co/9HUbBuUaid Try it: https://t.co/JjemGO1HHe API: https://t.co/tSzXvR2SMO…

X (formerly Twitter)