el.cine (@EHuanglu)

10년 된 구형 노트북에서도 100억(10B) 파라미터급 LLM을 실행할 수 있다는 주장으로, 로컬 AI 추론의 진입장벽이 크게 낮아질 가능성을 시사한다.

https://x.com/EHuanglu/status/2036831154469499177

#llm #localai #ondeviceai #ai #inference

el.cine (@EHuanglu) on X

this means your 10 yr old laptop now can run 10b parameter llm

X (formerly Twitter)