https://qlabs.sh/10x #Slowrun #DataEfficiency #ComputePower #TechHumor #HackerNews #ngated
NanoGPT Slowrun: 10x Data Efficiency with Infinite Compute
#HackerNews #NanoGPT #Slowrun #DataEfficiency #InfiniteCompute #AI
Yuchen Jin (@Yuchenj_UW)
작성자는 모델에게 B200s용 커널을 FlashAttention-4보다 더 잘 작성하게 하거나, NanoGPT를 더 빠르게 만들기 위한 새로운 연구 아이디어를 내게 하는 등 실험적·개발자용 활용 사례를 언급하며 곧 테스트하겠다고 밝혔습니다.
NanoGPT Slowrun: Language Modeling with Limited Data, Infinite Compute
#HackerNews #NanoGPT #Slowrun #LanguageModeling #LimitedData #InfiniteCompute
In my tests I didn't find GLM 5 thinking at Opus 4.5 level, slightly (subjective) better than Kimi K2.5 thinking I'd say.
GLM 5 is included in the $8 sub at nano!
Thí nghiệm nhỏ với NanoGPT của Karpathy cho thấy mô hình dần học các đặc điểm ngôn ngữ từ dataset tiny_shakespeare. Dự án minh họa quá trình huấn luyện GPT thu nhỏ trên dữ liệu vở kịch của Shakespeare. #AI #Shakespeare #MachineLearning #NanoGPT #DeepLearning #KhoaHocMay #GPT #HocMay #ThuGon #NgônNgữHọcMáy
Đào tạo mô hình NanoGPT 124m từ đầu chỉ trong 115 phút với card đồ họa 4090 và 1 tỷ token Fineweb! #NanoGPT #AI #MachineLearning #4090 #Fineweb #GPT2 #Training #Model #ArtificialIntelligence #DeepLearning #VietAI #MáyHọc #TríTuệNhânTạo
https://www.reddit.com/r/LocalLLaMA/comments/1ozre2i/nanogpt_124m_from_scratch_using_a_4090_and_a/
NanoGPTForge: Phiên bản NanoGPT sạch sẽ, an toàn, dễ sử dụng #NanoGPT #AI #MachineLearning #TríTuệNhânTạo #HọcMáy #PhátTriểnMới
https://www.reddit.com/r/SideProject/comments/1oyy8di/a_cleaner_safer_plugandplay_nanogpt/
Hê thống H200 toàn diện, nên nên dùng để luyện tập AI/ML! Luyện?
👉 Áp dụng NanoGPT Andreaj Karpathy hoặc mô hình lokal
🔥 Học AI Engineering hiệu quả nhé!
#AIGessing #MachineLearning #H200 #LearningVietnam #AIEngineering #LocalModel #nanoGPT
#ắnggfecha #quenhentaiphuong #hocmaybiet
https://www.reddit.com/r/LocalLLaMA/comments/1o7xwio/need_advice_on_what_to_do_with_h200/