Nico Martin (@nic_o_martin)

브라우저에서의 LLM 데모 초기 목표였던 10–20 tps보다 10배 빠른 성능과 더 나은 모델을 달성했다는 감탄의 트윗입니다. 현재는 초당 40토큰 수준에 모델 크기가 약 750MB에 불과하다고 하며, @xenovacom과 @liquidai의 작업을 칭찬하고 있습니다. 웹에서 실용적 LLM 배포 가능성을 시사합니다.

https://x.com/nic_o_martin/status/2026899951146369366

#llm #browser #performance #modelsize

🤷 Nico Martin (@nic_o_martin) on X

Thats insanely fast! When I made my first demos with LLMs in the browser I was looking for 10-20tps. Now we are at 10x this speed with way better models 🤯. Also it's only about 750 MB. Great work by @xenovacom and @liquidai!

X (formerly Twitter)

AISatoshi (@AiXsatoshi)

MiniMax-2.5 모델의 용량/크기를 간단히 표시한 트윗으로, 해당 모델이 230GB임을 알립니다. 모델 파일 크기 정보는 배포·호스팅, 추론 인프라 설계(메모리·디스크 요구)와 직접 연관됩니다.

https://x.com/AiXsatoshi/status/2022313190546354364

#minimax #model #230gb #modelsize

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

MiniMax-2.5 230GB https://t.co/uTokeHpAif

X (formerly Twitter)

AISatoshi (@AiXsatoshi)

GPT-5.3-Codex-Spark와 GLM-5의 모델 크기가 비슷하다는 관찰을 담은 짧은 언급입니다. 두 최신 모델의 규모 비교에 대한 간단한 코멘트입니다.

https://x.com/AiXsatoshi/status/2022072029856641174

#gpt #glm #modelsize #llm

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

GPT-5.3-Codex-SparkとGLM-5のサイズ似てるね

X (formerly Twitter)

AISatoshi (@AiXsatoshi)

INT4 양자화 버전의 모델 용량이 405GB로 보고되었습니다. 해당 트윗은 INT4 양자화 적용 모델의 저장·배포 요구량을 간단히 알리는 내용으로, 로컬 실행 환경에서의 용량 계획에 참고가 됩니다.

https://x.com/AiXsatoshi/status/2021877728904118582

#int4 #quantization #model #modelsize

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

INT4 405GB https://t.co/0QA5zYYBj3

X (formerly Twitter)

parth (@parthsareen)

q4(퀀타이즈된 모델)가 약 22GB를 차지해 저장·메모리 측면에서 다소 타이트할 수 있지만, 모델 자체 성능은 매우 좋다는 간단한 평가입니다. 모델 용량과 리소스 요구 관련 실무적 주의가 필요함을 시사합니다.

https://x.com/parthsareen/status/2013529591198208389

#q4 #quantization #modelsize #llm

parth (@parthsareen) on X

@Forward_2020 @Voxyz_AI @akshay_pachaar q4 is taking ~ 22gb might be a bit tight. really good model though 😅

X (formerly Twitter)

J. Iwasawa (@jiwasawa)

Gemini 3 Pro가 5~10조(테라) 파라미터 규모일 것이라는 예측을 소개하는 트윗입니다. 해당 예측은 Artificial Analysis 창업자들이 오픈 모델의 AA-Omniscience Index와 총 파라미터 수의 관계를 외삽해 도출한 것이며, Gemini 3 Pro의 AA-Omniscience Index를 13으로 예상합니다.

https://x.com/jiwasawa/status/2010688287997137224

#gemini3pro #gemini #modelsize #aaomniscience #openmodels

J. Iwasawa (@jiwasawa) on X

Gemini 3 Pro は 5~10Tパラメータモデルと Artificial Analysis 創業者らが予想していて興味深い。 オープンモデルでの AA-Omniscience Index vs. Total Parameters の関係から外挿した予想。Gemini 3 Pro は AA-Omniscience Index が 13。

X (formerly Twitter)

mburaksayici đang phát triển smallevals - mô hình ngôn ngữ nhỏ để đánh giá RAG/VectorDB nhanh hơn. Với dataset 200k cuộc hội thoại (250 token/trung bình), anh ấy đào tạo mô hình 0.5-0.6B. Tuy nhiên, full fine-tuning làm giảm hiệu suất, nên chuyển sang LORA (20M tham số). Anh ấy đang tìm hiểu tỉ lệ hiệu quả giữa token đào tạo và quy mô LORA/mô hình. #AI #MachineLearning #LORA #ModelSize #Knowledge #AIvie #MLVn #LORAtrain

200k hội thoại → 250 token/tr. Mô hình 0.6B + LORA (20M) chưa tối ưu. Cần p

C Alcal 120B và phiênfriends Guoá. Chi tiết về 88GB vs 65GB, înt vyt 4bit & cần GGUF. Thông tin hữu ích cho ngườiution! #TechNews #AI #GPToss #VietnameseAI #Llama #OpenSource #ModelSize"

https://www.reddit.com/r/LocalLLaMA/comments/1oa3u2d/the_size_difference_of_gptoss120b_vs_its/