Gabriele Berton (@gabriberton)
Andrej Karpathy의 레시피로 GPT-2 1.5B 모델 훈련 비용을 약 $43,000에서 $73로 대폭 절감했다는 주장. 7년간의 개선을 10개 항목으로 정리하며, 특히 기존 LLM에서 잘 보이지 않던 'Value Embeddings' 같은 기법을 소개함.

Gabriele Berton (@gabriberton) on X
The most interesting thing I've seen in a while The recipe by @karpathy to reduce GPT2-1.5B training cost from 43000$ to 73$! 7 years of improvements over vanilla GPT in 10 points Let's start from the uncommon ones: 1) Value Embeddings: I've never seen this in any LLM, [1/N]


